Math ClubMath Club
v1 · padrão canônico

Lição 110 — Consolidação Trim 11: Inferência Estatística

Workshop de síntese do trim 11: IC para média, testes z e t, ANOVA, qui-quadrado, regressão simples e múltipla, e inferência bayesiana — todos os pilares da estatística inferencial em um mapa integrado.

Used in: 3.º ano do EM / Stochastik LK alemão · Math B japonês (Estatística) · H2 Mathematics (Singapura) — Statistics

θ^±zα/2σn;T=Xˉμ0s/n;P(θD)P(Dθ)P(θ)\hat\theta \pm z_{\alpha/2}\frac{\sigma}{\sqrt{n}};\quad T = \frac{\bar X - \mu_0}{s/\sqrt{n}};\quad P(\theta \mid D) \propto P(D \mid \theta)\,P(\theta)

O trim 11 em três equações: intervalo de confiança para estimar, estatística TT para testar, e regra de Bayes para atualizar crenças. Toda inferência estatística é variação dessas três formas.

Choose your door

Rigorous notation, full derivation, hypotheses

Síntese formal do trim 11

Os três pilares da inferência estatística

"Um intervalo de confiança fornece uma faixa plausível de valores para o parâmetro da população. A interpretação correta: se repetirmos o procedimento muitas vezes, (1α)100%(1-\alpha)100\% dos intervalos construídos conterão o verdadeiro parâmetro." — OpenIntro Statistics §5.2

Pergunta:Estimar μ?IC: X̄ ± t·s/√nn ≥ (z·σ/E)²Teste H₀z / t / F / χ²Predizer Y?Regressão OLSAtualizar crença?Teorema de Bayes

Fluxo de decisão do trim 11 — cada pergunta estatística tem seu método.

Exemplos resolvidos

Exercise list

42 exercises · 10 with worked solution (25%)

Application 17Understanding 14Modeling 5Challenge 2Proof 4
  1. Ex. 110.1Application

    n=64n = 64, xˉ=50\bar x = 50, σ=8\sigma = 8 (conhecido). Construa o IC 95% para μ\mu.

    Show solution
    IC 95%: Xˉ±z0,025σ/n=50±1,96×8/8=50±1,96\bar X \pm z_{0,025}\,\sigma/\sqrt{n} = 50 \pm 1{,}96 \times 8/8 = 50 \pm 1{,}96. Intervalo: (48,04  ;51,96)(48{,}04\;; 51{,}96).
    Show step-by-step (with the why)
    1. Identifique: n=64n=64, xˉ=50\bar x = 50, σ=8\sigma = 8 (conhecido). Por quê: σ\sigma conhecido → usa-se zz, não tt.
    2. Valor crítico: z0,025=1,96z_{0,025} = 1{,}96.
    3. Margem: E=1,96×8/64=1,96E = 1{,}96 \times 8/\sqrt{64} = 1{,}96.
    4. IC: (48,04  ;51,96)(48{,}04\;; 51{,}96).

    Macete: com n=64n = 64, n=8\sqrt{n} = 8 — cálculo mental rápido.

  2. Ex. 110.2Application

    Com os dados do exercício anterior (xˉ=50\bar x = 50, s=8s = 8, n=64n = 64), teste H0:μ=48H_0: \mu = 48 vs H1:μ48H_1: \mu \neq 48 ao nível 5%. Calcule TT e decida.

    Show solution
    Com os mesmos dados (xˉ=50\bar x = 50, s=8s = 8, n=64n=64): T=(5048)/(8/8)=2T = (50-48)/(8/8) = 2. p-valor bilateral 0,046\approx 0{,}046. Rejeita-se H0H_0 ao nível 5%.
  3. Ex. 110.3ApplicationAnswer key

    Duas amostras independentes: xˉ1=100\bar x_1 = 100, s1=10s_1 = 10, n1=50n_1 = 50; xˉ2=95\bar x_2 = 95, s2=12s_2 = 12, n2=60n_2 = 60. Execute o teste Welch tt bilateral ao nível 5%.

    Show solution
    Welch: T=(10095)/100/50+144/60=5/4,45/2,0982,38T = (100-95)/\sqrt{100/50 + 144/60} = 5/\sqrt{4{,}4} \approx 5/2{,}098 \approx 2{,}38. Com graus de liberdade de Welch 106\approx 106, p-valor 0,019\approx 0{,}019. Rejeita-se H0H_0.
  4. Ex. 110.4Application

    Três grupos com ni=20n_i = 20 plantas cada, médias Xˉ1=10\bar X_1 = 10, Xˉ2=12\bar X_2 = 12, Xˉ3=14\bar X_3 = 14. Supondo σ2=4\sigma^2 = 4 (variância intra-grupos), calcule FF da ANOVA e decida ao nível 5%.

    Show solution
    SSB=20[(1012)2+(1212)2+(1412)2]=208=160SS_B = 20[(10-12)^2+(12-12)^2+(14-12)^2] = 20 \cdot 8 = 160. MSB=80MS_B = 80. Se MSW=σ2=4MS_W = \sigma^2 = 4 então F=80/4=20F = 80/4 = 20. F0,05;2,573,16F_{0,05;2,57} \approx 3{,}16. Rejeita-se H0H_0.
    Show step-by-step (with the why)
    1. Média geral: Xˉ=(10+12+14)/3=12\bar X = (10+12+14)/3 = 12.
    2. SSB=20(XˉiXˉ)2=20(4+0+4)=160SS_B = 20\sum(\bar X_i - \bar X)^2 = 20(4+0+4) = 160. Por quê: ni=20n_i = 20 plantas por grupo.
    3. MSB=SSB/(k1)=160/2=80MS_B = SS_B/(k-1) = 160/2 = 80.
    4. F=MSB/MSW=80/4=203,16F = MS_B/MS_W = 80/4 = 20 \gg 3{,}16. Rejeita fortemente.

    Observação: Com F=20F = 20 e Fcrit3,16F_{crit} \approx 3{,}16, o p-valor é minúsculo — efeito enorme.

  5. Ex. 110.5ApplicationAnswer key

    Modelo ajustado: Y^=5+2X\hat Y = 5 + 2X. Qual é a predição pontual para X=10X = 10?

    Show solution
    Y^=5+2×10=25\hat Y = 5 + 2 \times 10 = 25.
  6. Ex. 110.6ApplicationAnswer key

    R2=0,8R^2 = 0{,}8, n=50n = 50, p=4p = 4 preditores. Calcule Radj2R^2_{\text{adj}}.

    Show solution
    Radj2=1(10,8)(501)/(5041)=10,2×49/45=10,21780,782R^2_{\text{adj}} = 1 - (1 - 0{,}8)(50-1)/(50-4-1) = 1 - 0{,}2 \times 49/45 = 1 - 0{,}2178 \approx 0{,}782.
  7. Ex. 110.7Application

    Uma tabela de contingência 2×32 \times 3 produziu χ2=8\chi^2 = 8. Quantos graus de liberdade? Há associação ao nível 5%?

    Show solution
    Tabela 2×32 \times 3: df=(21)(31)=2df = (2-1)(3-1) = 2. χ0,05;22=5,991\chi^2_{0,05;\,2} = 5{,}991. Como χ2=8>5,991\chi^2 = 8 > 5{,}991, rejeita-se a hipótese de independência.
  8. Ex. 110.8Application

    Prior θBeta(2,2)\theta \sim \text{Beta}(2, 2). Observa-se X=8X = 8 sucessos em n=10n = 10 ensaios. Qual é a distribuição posterior de θ\theta?

    Show solution
    Prior: Beta(2,2)\text{Beta}(2, 2). Likelihood: Bin(10,θ)\text{Bin}(10, \theta), X=8X = 8. Posterior: Beta(2+8,2+108)=Beta(10,4)\text{Beta}(2+8, 2+10-8) = \text{Beta}(10, 4).
  9. Ex. 110.9Application

    Com a posterior Beta(10,4)\text{Beta}(10, 4) do exercício anterior, calcule a média posterior e o MAP (moda da distribuição posterior).

    Show solution
    Posterior Beta(10,4)\text{Beta}(10, 4): média =10/(10+4)=10/140,714= 10/(10+4) = 10/14 \approx 0{,}714. Estimativa pontual MAP = moda = (101)/(142)=9/12=0,75(10-1)/(14-2) = 9/12 = 0{,}75.
  10. Ex. 110.10ApplicationAnswer key

    Localize na tabela da distribuição normal padrão: qual é z0,025z_{0,025}? (Resp: 1,9601{,}960.)

    Show solution
    z0,025=1,960z_{0,025} = 1{,}960. Valor crítico bilateral para IC 95%.
  11. Ex. 110.11Application

    Localize na tabela tt: t0,025;19t_{0,025;\,19}. (Resp: 2,0932{,}093.)

    Show solution
    t0,025;19=2,093t_{0,025;\,19} = 2{,}093. Distribuição tt com 19 graus de liberdade, área bilateral 5%.
  12. Ex. 110.12ApplicationAnswer key

    Localize F0,05;2,27F_{0,05;\,2,\,27} na tabela F. (Resp: 3,35{\approx}\,3{,}35.)

    Show solution
    F0,05;2,273,35F_{0,05;\,2,\,27} \approx 3{,}35. Valor crítico ANOVA com k=3k=3 grupos e Nk=27N-k=27 graus de liberdade do erro.
  13. Ex. 110.13Application

    Localize χ0,05;42\chi^2_{0,05;\,4}. (Resp: 9,4889{,}488.)

    Show solution
    χ0,05;42=9,488\chi^2_{0,05;\,4} = 9{,}488.
  14. Ex. 110.14Understanding

    Qual teste é apropriado para comparar o salário médio de homens e mulheres em uma empresa, com amostras independentes e variâncias desconhecidas?

    Select the correct option
    Select an option first
    Show solution
    Duas médias independentes e contínuas, com desvios desconhecidos: o método correto é o teste Welch t (C). Qui-quadrado é para categóricas; ANOVA serve 3+ grupos; teste tt de uma amostra compara com valor fixo.
  15. Ex. 110.15Understanding

    Pesquisa com 100 pessoas registra gênero (M/F) e partido preferido (A/B/C). Qual teste verifica associação entre as variáveis?

    Select the correct option
    Select an option first
    Show solution
    Gênero e partido são duas variáveis categóricas — o teste adequado é o qui-quadrado de independência (B). ANOVA e teste tt exigem variável contínua; regressão linear prediz valores numéricos.
  16. Ex. 110.16Understanding

    Um estudo testa 4 dosagens de um medicamento (dose baixa, média, alta, placebo) na perda de peso (kg) em 20 pacientes por grupo. Qual o método de análise?

    Select the correct option
    Select an option first
    Show solution
    Quatro dosagens (quatro grupos) e uma variável contínua (perda de peso): ANOVA de um fator (C). Welch tt serve apenas para 2 grupos; qui-quadrado não se aplica a variáveis contínuas.
  17. Ex. 110.17Understanding

    Mede-se o peso de 20 pessoas antes e depois de uma dieta de 3 meses. Os dados são pareados. Qual é o teste correto?

    Select the correct option
    Select an option first
    Show solution
    Peso antes e depois na mesma pessoa: os dados são pareados. Aplica-se o teste t pareado (B), que analisa a diferença Di=Xi,depoisXi,antesD_i = X_{i,\text{depois}} - X_{i,\text{antes}}.
  18. Ex. 110.18Application

    Uma estatística Z=2,1Z = 2{,}1 foi obtida em um teste bilateral. Calcule o p-valor e decida ao nível α=5%\alpha = 5\%.

    Show solution
    p-valor bilateral: 2×P(Z2,1)=2×(10,9821)=2×0,0179=0,0362 \times P(Z \geq 2{,}1) = 2 \times (1 - 0{,}9821) = 2 \times 0{,}0179 = 0{,}036. Rejeita-se H0H_0 ao nível 5%.
  19. Ex. 110.19ApplicationAnswer key

    Para um IC 95% com margem de erro E=2E = 2 e σ=10\sigma = 10, qual é o tamanho mínimo de amostra?

    Show solution
    n(z0,025σ/E)2=(1,96×10/2)2=(9,8)2=96,04n \geq (z_{0,025}\,\sigma/E)^2 = (1{,}96 \times 10/2)^2 = (9{,}8)^2 = 96{,}04. Portanto n97n \geq 97.
    Show step-by-step (with the why)
    1. Fórmula: n(zα/2σ/E)2n \geq (z_{\alpha/2}\,\sigma/E)^2. Por quê: deriva do IC — isola nn na desigualdade zσ/nEz \cdot \sigma/\sqrt{n} \leq E.
    2. Substitua: n(1,96×10/2)2=9,82=96,04n \geq (1{,}96 \times 10/2)^2 = 9{,}8^2 = 96{,}04.
    3. Arredonde para cima: n=97n = 97. Macete: sempre arredondar para cima, nunca para baixo — garantir margem.
  20. Ex. 110.20Understanding

    Cohen's d=0,5d = 0{,}5. Qual é o tamanho do efeito segundo a convenção de Cohen?

    Select the correct option
    Select an option first
    Show solution
    Pela convenção de Cohen (1988): d=0,2d = 0{,}2 = pequeno; d=0,5d = 0{,}5 = médio (B); d=0,8d = 0{,}8 = grande. Distratores A e C mapeiam confusões comuns nos limiares.
  21. Ex. 110.21Application

    Uma tabela de contingência produziu Cramér's V=0,25V = 0{,}25. Classifique o tamanho do efeito.

    Show solution
    Cramér's V=0,25V = 0{,}25: efeito médio. Convenção: V0,1V \leq 0{,}1 pequeno; 0,1<V0,30{,}1 < V \leq 0{,}3 médio; V>0,3V > 0{,}3 grande.
  22. Ex. 110.22Application

    Uma ANOVA produziu η2=0,10\eta^2 = 0{,}10. Qual é o tamanho do efeito?

    Show solution
    η2=0,10\eta^2 = 0{,}10: efeito médio. Convenção: η2=0,01\eta^2 = 0{,}01 pequeno; 0,060{,}06 médio; 0,140{,}14 grande (Cohen, 1988).
  23. Ex. 110.23Understanding

    BF10=5BF_{10} = 5. Que força de evidência a favor de H1H_1 isso representa, pela escala de Jeffreys?

    Select the correct option
    Select an option first
    Show solution
    Pela escala de Jeffreys: BF10=5BF_{10} = 5 indica evidência moderada a favor de H1H_1 (B). BF<3BF < 3 é fraco; 3BF<103 \leq BF < 10 é moderado; 10BF<3010 \leq BF < 30 é forte.
  24. Ex. 110.24Understanding

    Em uma frase cada: qual é a diferença de interpretação entre um IC frequentista (95%) e um IC credível bayesiano (95%)?

    Show solution
    IC frequentista: afirmação sobre o procedimento — em 95% das amostras hipotéticas, o intervalo conterá μ\mu. IC credível bayesiano: afirmação sobre o parâmetro — "com probabilidade 95%, θ[a,b]\theta \in [a,b]" dados os dados observados.
  25. Ex. 110.25Understanding

    Distinga em uma frase: erro tipo I vs erro tipo II em um teste de hipótese.

    Show solution
    Erro tipo I: rejeitar H0H_0 verdadeira (falso positivo) — probabilidade α\alpha. Erro tipo II: não rejeitar H0H_0 falsa (falso negativo) — probabilidade β=1poder\beta = 1 - \text{poder}.
  26. Ex. 110.26Understanding

    Distinga: significância estatística vs significância prática. Por que um resultado pode ser estatisticamente significativo mas praticamente irrelevante?

    Show solution
    Significância estatística (p<αp < \alpha) indica que o efeito provavelmente não é zero. Significância prática avalia se o efeito é grande o suficiente para importar no mundo real — com nn grande, efeitos minúsculos são estatisticamente significativos mas praticamente irrelevantes.
  27. Ex. 110.27UnderstandingAnswer key

    Distinga: associação estatística vs causalidade. Por que regressão linear mede associação, não causa?

    Show solution
    Associação: as variáveis variam juntas (correlação, coeficiente rr). Causalidade: mudança em XX produz mudança em YY. Regressão e correlação medem associação — inferência causal exige design experimental ou métodos específicos (variáveis instrumentais, RCT).
  28. Ex. 110.28Understanding

    Distinga: dados pareados vs amostras independentes. Dê um exemplo de cada.

    Show solution
    Dados pareados: as observações dos dois grupos são emparelhadas naturalmente (mesmo indivíduo antes/depois, gêmeos, etc.) — analisa-se a diferença DiD_i. Amostras independentes: os grupos não têm correspondência entre observações — compara-se as médias diretamente.
  29. Ex. 110.29Understanding

    Distinga: R2R^2 vs Radj2R^2_{\text{adj}} em regressão múltipla. Por que o segundo é mais confiável para comparar modelos com número diferente de preditores?

    Show solution
    R2R^2 é a proporção da variância de YY explicada pelo modelo — aumenta (ou mantém) ao adicionar qualquer preditor. Radj2R^2_{\text{adj}} penaliza cada preditor extra adicionado: apenas sobe se o preditor melhora o ajuste além do esperado por acaso.
  30. Ex. 110.30Understanding

    Distinga: distribuição prior vs distribuição posterior na inferência bayesiana.

    Show solution
    Prior: distribuição de probabilidade sobre θ\theta antes de ver os dados — codifica o conhecimento a priori. Posterior: distribuição atualizada após combinar prior com a verossimilhança dos dados via teorema de Bayes.
  31. Ex. 110.31ModelingAnswer key

    A/B testing: versão A obteve 80 conversões em 1000 visitantes; versão B obteve 110/1000. Aplique o teste z para proporções (frequentista) e estime P(θB>θA)P(\theta_B > \theta_A) bayesianamente com prior Beta(1,1)\text{Beta}(1,1).

    Show solution
    Teste z para proporções: p^A=0,08\hat p_A = 0{,}08, p^B=0,11\hat p_B = 0{,}11, p^=0,095\hat p = 0{,}095. Z=(0,110,08)/0,095×0,905×2/10002,30Z = (0{,}11-0{,}08)/\sqrt{0{,}095 \times 0{,}905 \times 2/1000} \approx 2{,}30. p-valor bilateral 0,021\approx 0{,}021. Frequentista: rejeita H0H_0. Bayesiano: Beta(81,921)\text{Beta}(81, 921) vs Beta(111,891)\text{Beta}(111, 891)P(θB>θA)P(\theta_B > \theta_A) via simulação.
    Show step-by-step (with the why)
    1. Frequentista: calcule p^\hat p poolado, estatística ZZ, p-valor bilateral.
    2. Bayesiano: prior Beta(1,1)\text{Beta}(1,1) (não-informativo). Posterior A: Beta(81,921)\text{Beta}(81, 921); posterior B: Beta(111,891)\text{Beta}(111, 891).
    3. Simule 100.000 pares (θA,θB)(\theta_A, \theta_B) e calcule P(θB>θA)P(\theta_B > \theta_A). Observação: probabilidade de B superar A é mais direta para decisão de negócio do que o p-valor.
  32. Ex. 110.32Modeling

    Ensaio clínico: droga reduz pressão. Para n=64n = 64 pacientes, a diferença pareada (antes-depois) tem Dˉ=7\bar D = 7 mmHg e sD=5s_D = 5 mmHg. Faça o teste tt pareado (unilateral: H1:μD>0H_1: \mu_D > 0) e construa o IC 95% para a redução média.

    Show solution
    Diferença DiD_i = pressão após menos pressão antes; média Dˉ=7\bar D = -7 mmHg. T=7/(5/8)=11,2T = -7/(5/8) = -11{,}2. t0,025;631,998t_{0,025;63} \approx 1{,}998. Rejeita H0H_0. IC 95%: 7±1,998×5/8=7±1,25=(8,25  ;5,75)-7 \pm 1{,}998 \times 5/8 = -7 \pm 1{,}25 = (-8{,}25\;; -5{,}75) mmHg.
  33. Ex. 110.33Modeling

    Regressão de preço de imóvel: modelo com apenas m2m^2 tem R2=0,70R^2 = 0{,}70 (n=200n = 200). Ao adicionar número de quartos, R2=0,78R^2 = 0{,}78. Calcule Radj2R^2_{\text{adj}} para cada modelo e decida se o preditor extra é justificado.

    Show solution
    R2R^2 subiu de 0,70 para 0,78 ao adicionar quartos. Radj2R^2_{\text{adj}} (com p=1p=1 e p=2p=2, n=200n=200): 0,699 e 0,778. O incremento ajustado é substancial. A variável quartos contribui genuinamente. Vale a pena incluí-la, mas verificar VIF para colinearidade.
  34. Ex. 110.34Modeling

    Cinco dietas, 30 pessoas por grupo. Esboce o protocolo de análise completo: verificação de suposições, ANOVA, post-hoc e o que reportar.

    Show solution
    Verificar: Levene (homocedasticidade), Shapiro-Wilk por grupo. ANOVA: F(4,145)F(4, 145), Fcrit2,44F_{crit} \approx 2{,}44. Se F>2,44F > 2{,}44, Tukey HSD para comparações múltiplas. Reportar: FF, dfdf, p-valor, η2\eta^2 e quais pares diferem com IC 95% para as diferenças.
  35. Ex. 110.35ModelingAnswer key

    Pesquisa eleitoral: 4 regiões (Norte, Nordeste, Sudeste, Sul) ×\times 3 candidatos. Tabela de contingência com N=400N = 400. Calcule os graus de liberdade, execute o χ2\chi^2, Cramér's VV, e identifique as células com maior resíduo padronizado.

    Show solution
    Tabela 4×34 \times 3: df=(41)(31)=6df = (4-1)(3-1) = 6. Calcule χ2=(OE)2/E\chi^2 = \sum (O-E)^2/E com Eij=RiCj/NE_{ij} = R_i C_j / N. Cramér's V=χ2/(Nmin(r1,c1))V = \sqrt{\chi^2 / (N \cdot \min(r-1, c-1))}. Resíduos padronizados: eij=(OijEij)/Eije_{ij} = (O_{ij} - E_{ij})/\sqrt{E_{ij}} identificam células que mais contribuem para a associação.
  36. Ex. 110.36Understanding

    Justifique por que p=0,06p = 0{,}06 não constitui evidência de que H0H_0 é verdadeira.

    Show solution
    p=0,06p = 0{,}06 significa: "se H0H_0 fosse verdadeira, haveria 6% de chance de obter este resultado ou mais extremo". Isso não é evidência de H0H_0 — a falta de rejeição pode dever-se a tamanho de amostra insuficiente (baixo poder). A ausência de evidência não é evidência de ausência.
  37. Ex. 110.37Proof

    Demonstre que a regressão linear simples com uma variável dummy binária (0/1 indicando grupo) produz exatamente o mesmo resultado que o teste tt de duas amostras independentes (variâncias iguais).

    Show solution
    Seja XX dummy: Xi=0X_i = 0 (grupo 1) ou Xi=1X_i = 1 (grupo 2). Mínimos quadrados: β^0=Yˉ1\hat\beta_0 = \bar Y_1, β^1=Yˉ2Yˉ1\hat\beta_1 = \bar Y_2 - \bar Y_1. Estatística tt do coeficiente: t=β^1/SE(β^1)t = \hat\beta_1/SE(\hat\beta_1). Com SE(β^1)=sp1/n1+1/n2SE(\hat\beta_1) = s_p\sqrt{1/n_1 + 1/n_2} (variâncias iguais), isso é exatamente o teste tt de duas amostras.
  38. Ex. 110.38Proof

    Demonstre que, quando a ANOVA tem apenas k=2k = 2 grupos, a estatística FF é igual ao quadrado da estatística TT do teste tt bilateral. Explicite os graus de liberdade.

    Show solution
    ANOVA com k=2k=2 grupos: SSB=n1n2(Xˉ1Xˉ2)2/(n1+n2)SS_B = n_1 n_2 (\bar X_1 - \bar X_2)^2/(n_1+n_2). MSB=SSBMS_B = SS_B (1 df). T2=(Xˉ1Xˉ2)2/[sp2(1/n1+1/n2)]T^2 = (\bar X_1 - \bar X_2)^2 / [s_p^2(1/n_1+1/n_2)]. Expandindo: F=MSB/MSW=T2F = MS_B/MS_W = T^2. Portanto F1,N2=TN22F_{1, N-2} = T^2_{N-2}.
  39. Ex. 110.39ProofAnswer key

    Mostre que o estimador MAP com prior uniforme é identicamente igual ao estimador de máxima verossimilhança (MLE). Parta da definição de MAP.

    Show solution
    MAP: θ^MAP=argmaxθ[logP(Dθ)+logP(θ)]\hat\theta_{MAP} = \arg\max_\theta [\log P(D|\theta) + \log P(\theta)]. Com prior uniforme P(θ)=cP(\theta) = c (constante), logP(θ)=logc\log P(\theta) = \log c não depende de θ\theta. Então θ^MAP=argmaxθlogP(Dθ)=θ^MLE\hat\theta_{MAP} = \arg\max_\theta \log P(D|\theta) = \hat\theta_{MLE}.
  40. Ex. 110.40Challenge

    Descreva, em pseudocódigo ou lista estruturada, um pipeline completo de análise A/B testing para uma taxa de conversão de e-commerce: desde a power analysis (efeito mínimo detectável de 2 p.p., α=5%\alpha = 5\%, potência 80%) até o relatório final com todos os elementos que um revisor estatístico exigiria.

    Show solution
    Power analysis: dado δ\delta (diferença mínima relevante), σ\sigma, α=0,05\alpha = 0{,}05 e potência 80%, calcule n2σ2(zα+zβ)2/δ2n \geq 2\sigma^2(z_\alpha + z_\beta)^2/\delta^2. Pipeline completo: 1) power analysis → nn; 2) coleta até nn com aleatorização; 3) teste z/t com IC; 4) tamanho de efeito; 5) relatório com todos os elementos; 6) diagnóstico e limitações.
  41. Ex. 110.41Challenge

    Compare em texto detalhado (ao menos 200 palavras) quando preferir abordagem frequentista vs bayesiana em A/B testing online. Considere: interpretabilidade, tomada de decisão sequencial, incorporação de priors, e garantias de erro.

    Show solution
    Frequentista: controla taxa de erro tipo I a longo prazo; adequado quando o analista não tem prior informativo e quer garantias de false positive rate. Bayesiano: fornece P(θB>θAdados)P(\theta_B > \theta_A \mid \text{dados}) diretamente — mais natural para decisão sequencial (pode parar no interim), incorpora conhecimento prévio e não exige definição de nn fixo a priori. Em A/B online, Bayes é preferível pela tomada de decisão sequencial e pela interpretabilidade para stakeholders não-estatísticos.
  42. Ex. 110.42Proof

    Demonstre por integração (ou por identificação do núcleo) que se θBeta(α,β)\theta \sim \text{Beta}(\alpha, \beta) e XθBin(n,θ)X \mid \theta \sim \text{Bin}(n, \theta), então θXBeta(α+X,  β+nX)\theta \mid X \sim \text{Beta}(\alpha + X,\; \beta + n - X).

    Show solution
    Prior: P(θ)θα1(1θ)β1P(\theta) \propto \theta^{\alpha-1}(1-\theta)^{\beta-1}. Verossimilhança: P(Xθ)θX(1θ)nXP(X|\theta) \propto \theta^X(1-\theta)^{n-X}. Posterior: P(θX)θα+X1(1θ)β+nX1P(\theta|X) \propto \theta^{\alpha+X-1}(1-\theta)^{\beta+n-X-1} — núcleo de Beta(α+X,β+nX)\text{Beta}(\alpha+X, \beta+n-X). A constante de normalização é B(α+X,β+nX)1B(\alpha+X, \beta+n-X)^{-1}, confirmando a forma beta.
    Show step-by-step (with the why)
    1. Escreva o prior Beta(α,β)\text{Beta}(\alpha,\beta) sem constante de normalização: P(θ)θα1(1θ)β1P(\theta) \propto \theta^{\alpha-1}(1-\theta)^{\beta-1}.
    2. Escreva a verossimilhança binomial: P(Xθ)=(nX)θX(1θ)nXθX(1θ)nXP(X|\theta) = \binom{n}{X}\theta^X(1-\theta)^{n-X} \propto \theta^X(1-\theta)^{n-X}. Por quê: o binomial (nX)\binom{n}{X} não depende de θ\theta, cai na proporcionalidade.
    3. Multiplique: P(θX)θα+X1(1θ)β+nX1P(\theta|X) \propto \theta^{\alpha+X-1}(1-\theta)^{\beta+n-X-1}.
    4. Reconheça o núcleo: isso é a função densidade de Beta(α+X,β+nX)\text{Beta}(\alpha+X, \beta+n-X).

    Curiosidade: a distribuição Beta é chamada conjugada da binomial exatamente porque o prior e o posterior têm a mesma família — a atualização é só somar expoentes.

Fontes

  • OpenIntro Statistics (4ª ed) — Diez, Çetinkaya-Rundel, Barr · 2019 · CC-BY-SA. Fonte primária para IC, testes, ANOVA, qui-quadrado e regressão (§5–9).
  • Statistics (OpenStax) — Illowsky, Dean · CC-BY. Fonte para exemplos práticos de IC, testes zz e tt, tabelas de distribuição (§8–13).
  • Statistical Thinking for the 21st Century — Russell Poldrack · CC-BY-NC. Fonte para inferência bayesiana, tamanho de efeito, reprodutibilidade e crise de replicação (Ch. 9, 15).

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.