Math ClubMath Club
v1 · padrão canônico

Lição 105 — Regressão linear simples

Modelo OLS, estimadores de mínimos quadrados, R², resíduos, inferência sobre a inclinação. Fundamento do aprendizado supervisionado e da econometria.

Used in: Stochastik LK alemão (Klasse 12) · H2 Mathematics Singapura (§14) · Math B japonês

Y^=β^0+β^1X,β^1=SxySxx\hat{Y} = \hat\beta_0 + \hat\beta_1 X, \qquad \hat\beta_1 = \frac{S_{xy}}{S_{xx}}

A reta de mínimos quadrados passa pelo centroide (Xˉ,Yˉ)(\bar X, \bar Y) e tem inclinação igual à covariância amostral dividida pela variância de XX. O intercepto β^0=Yˉβ^1Xˉ\hat\beta_0 = \bar Y - \hat\beta_1 \bar X é determinado a partir daí.

Choose your door

Rigorous notation, full derivation, hypotheses

Definição rigorosa

Modelo de regressão linear simples

"The regression equation is written as y^=a+bx\hat{y} = a + bx, where bb is the slope and aa is the yy-intercept." — OpenStax Statistics, §12.3

Decomposição da variância e R²

"The coefficient of determination r2r^2 is the square of the correlation coefficient rr. It tells you the fraction of total variability in the response that is explained by the least-squares line." — OpenIntro Statistics, §7.2, p. 331

Inferência sobre a inclinação

YXeReta ajustadaDadosResíduo eᵢ

Reta de mínimos quadrados (dourada) minimizando a soma dos quadrados dos resíduos (laranjas). Cada resíduo e é a distância vertical do ponto à reta.

Exemplos resolvidos

Exercise list

30 exercises · 7 with worked solution (25%)

Application 15Understanding 4Modeling 5Challenge 4Proof 2
  1. Ex. 105.1Application

    Dados: n=6n=6, Xˉ=4\bar X = 4, Yˉ=10\bar Y = 10, Sxx=20S_{xx} = 20, Sxy=30S_{xy} = 30. Calcule β^0\hat\beta_0 e β^1\hat\beta_1.

    Show solution
    Com n=6n=6 pares, Xˉ=4\bar X = 4, Yˉ=10\bar Y = 10, Sxx=20S_{xx} = 20, Sxy=30S_{xy} = 30. β^1=30/20=1,5\hat\beta_1 = 30/20 = 1{,}5; β^0=101,5×4=4\hat\beta_0 = 10 - 1{,}5 \times 4 = 4. Reta: Y^=4+1,5X\hat Y = 4 + 1{,}5 X.
  2. Ex. 105.2Application

    Pares (X,Y)(X,Y): (2,5)(2,5), (4,9)(4,9), (6,11)(6,11), (8,15)(8,15), (10,20)(10,20). Calcule a reta de mínimos quadrados.

    Show solution
    Y^=1,2+1,8X\hat Y = 1{,}2 + 1{,}8 X. A reta passa pelo centroide (6,12)(6, 12).
    Show step-by-step (with the why)
    1. Calcule as médias: Xˉ=(2+4+6+8+10)/5=6\bar X = (2+4+6+8+10)/5 = 6 e Yˉ=(5+9+11+15+20)/5=12\bar Y = (5+9+11+15+20)/5 = 12.
    2. Calcule Sxx=(Xi6)2=16+4+0+4+16=40S_{xx} = \sum(X_i - 6)^2 = 16+4+0+4+16 = 40.
    3. Calcule Sxy=(Xi6)(Yi12)=(4)(7)+(2)(3)+0+(2)(3)+(4)(8)=28+6+0+6+32=72S_{xy} = \sum(X_i-6)(Y_i-12) = (-4)(-7)+(-2)(-3)+0+(2)(3)+(4)(8) = 28+6+0+6+32 = 72.
    4. β^1=72/40=1,8\hat\beta_1 = 72/40 = 1{,}8; β^0=121,8×6=1,2\hat\beta_0 = 12 - 1{,}8 \times 6 = 1{,}2.
    5. Macete: sempre verifique que a reta passa por (Xˉ,Yˉ)(\bar X, \bar Y): 1,2+1,8×6=121{,}2 + 1{,}8 \times 6 = 12. Correto.
  3. Ex. 105.3Application

    Usando Y^=1,2+1,8X\hat Y = 1{,}2 + 1{,}8X (exercício anterior), preveja YY para X=7X=7 e X=12X=12. Identifique qual previsão é extrapolação.

    Show solution
    Y^=1,2+1,8×7=13,8\hat Y = 1{,}2 + 1{,}8 \times 7 = 13{,}8. Para X=12X=12: 1,2+1,8×12=22,81{,}2 + 1{,}8 \times 12 = 22{,}8. Obs.: X=12X=12 está fora do intervalo dos dados originais (extrapolação).
  4. Ex. 105.4Application

    Para os dados do Exercício 105.1: Xˉ=4\bar X=4, Yˉ=10\bar Y=10, Sxx=20S_{xx}=20, Sxy=30S_{xy}=30, Syy=52S_{yy}=52. Calcule R2R^2 e interprete.

    Show solution
    Sxx=20S_{xx} = 20; Sxy=30S_{xy} = 30; Syy=(YiYˉ)2S_{yy} = \sum(Y_i-\bar Y)^2. SSR=Sxy2/Sxx=900/20=45SSR = S_{xy}^2/S_{xx} = 900/20 = 45; SST=SyySST = S_{yy}. R2=SSR/SSTR^2 = SSR/SST. Precisa calcular SyyS_{yy} com os dados completos.
  5. Ex. 105.5ApplicationAnswer key

    O coeficiente de correlação de Pearson entre duas variáveis é r=0,87r = 0{,}87. Qual é o R2R^2 da regressão simples de YY em XX?

    Show solution
    R2=r2=(0,87)2=0,757R^2 = r^2 = (0{,}87)^2 = 0{,}757. Aproximadamente 75,7% da variabilidade em YY é explicada pela regressão em XX.
  6. Ex. 105.6ApplicationAnswer key

    Regressão de salário anual (em mil R$) em anos de experiência produziu Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X. Interprete β^0\hat\beta_0 e β^1\hat\beta_1.

    Show solution
    β^1=2,5\hat\beta_1 = 2{,}5 indica que, em média, cada ano adicional de experiência está associado a um aumento de R\$ 2.500 no salário anual. β^0=32,4\hat\beta_0 = 32{,}4 é o salário previsto (em mil R\$) para zero anos de experiência — interpretação prática somente dentro do intervalo dos dados.
  7. Ex. 105.7Application

    Usando Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X, um funcionário com 14 anos de experiência ganha R$ 72 mil/ano. Calcule o resíduo.

    Show solution
    e3=Y3Y^3=72(32,4+2,5×14)=7267,4=4,6e_3 = Y_3 - \hat Y_3 = 72 - (32{,}4 + 2{,}5 \times 14) = 72 - 67{,}4 = 4{,}6 mil R\. O funcionário ganha R\ 4.600 a mais do que o previsto pelo modelo para 14 anos de experiência.
  8. Ex. 105.8ApplicationAnswer key

    Cinco valores observados de YY: (8,10,12,9,11)(8, 10, 12, 9, 11) com Yˉ=10\bar Y = 10. O SSE da regressão é 3,2. Calcule SST, SSR e R2R^2.

    Show solution
    SST=(YiYˉ)2SST = \sum(Y_i - \bar Y)^2. Com Yˉ=10\bar Y = 10 e dados (8,10,12,9,11)(8, 10, 12, 9, 11): SST=4+0+4+1+1=10SST = 4+0+4+1+1 = 10. Se SSE=3,2SSE = 3{,}2, então SSR=6,8SSR = 6{,}8 e R2=0,68R^2 = 0{,}68.
  9. Ex. 105.9Application

    Uma regressão com n=20n=20 produziu SSE=48,6SSE = 48{,}6. Calcule MSEMSE e σ^\hat\sigma e interprete.

    Show solution
    MSE=SSE/(n2)=48,6/18=2,7MSE = SSE/(n-2) = 48{,}6/18 = 2{,}7. σ^=2,71,643\hat\sigma = \sqrt{2{,}7} \approx 1{,}643. Desvio padrão residual: um ponto típico está a cerca de 1,64 unidades da reta ajustada.
  10. Ex. 105.10Application

    β^1=3,6\hat\beta_1 = 3{,}6, σ^=2,1\hat\sigma = 2{,}1, Sxx=144S_{xx} = 144. Calcule SE(β^1)SE(\hat\beta_1) e a estatística TT.

    Show solution
    SE(β^1)=σ^/Sxx=2,1/144=2,1/12=0,175SE(\hat\beta_1) = \hat\sigma/\sqrt{S_{xx}} = 2{,}1/\sqrt{144} = 2{,}1/12 = 0{,}175. T=3,6/0,175=20,57T = 3{,}6/0{,}175 = 20{,}57. Com df=n2df = n-2 graus de liberdade, esse valor é altamente significativo.
  11. Ex. 105.11Application

    n=30n=30, β^1=1,4\hat\beta_1 = 1{,}4, SE(β^1)=0,38SE(\hat\beta_1) = 0{,}38. Construa IC 95% para β1\beta_1 e interprete.

    Show solution
    IC 95%: β^1±t28;0,025×SE(β^1)=1,4±2,048×0,38=1,4±0,778\hat\beta_1 \pm t_{28;\,0{,}025} \times SE(\hat\beta_1) = 1{,}4 \pm 2{,}048 \times 0{,}38 = 1{,}4 \pm 0{,}778. IC: (0,622;  2,178)(0{,}622;\; 2{,}178). Como o IC não inclui 0, a inclinação é significativa ao nível de 5%.
  12. Ex. 105.12Application

    r=0,73r = -0{,}73, sX=4s_X = 4, sY=6s_Y = 6. Qual o sinal de β^1\hat\beta_1? Calcule β^1\hat\beta_1 usando a relação β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X).

    Show solution
    Correlação e inclinação têm o mesmo sinal: r>0β^1>0r > 0 \Leftrightarrow \hat\beta_1 > 0. β^1=r(sY/sX)\hat\beta_1 = r \cdot (s_Y/s_X), onde sYs_Y e sXs_X são os desvios padrão amostrais. Com r=0,73r = -0{,}73, sX=4s_X = 4, sY=6s_Y = 6: β^1=0,73×6/4=1,095\hat\beta_1 = -0{,}73 \times 6/4 = -1{,}095.
  13. Ex. 105.13UnderstandingAnswer key

    Qual das afirmações sobre a reta de mínimos quadrados é CORRETA?

    Select the correct option
    Select an option first
    Show solution
    A reta de mínimos quadrados sempre passa pelo centroide (Xˉ,Yˉ)(\bar X, \bar Y) — isso é consequência direta da equação β^0=Yˉβ^1Xˉ\hat\beta_0 = \bar Y - \hat\beta_1 \bar X. A soma dos resíduos é sempre zero (não positiva). R² pode ser calculado para qualquer n2n \geq 2.
  14. Ex. 105.14Understanding

    Qual é a interpretação correta de R2=0R^2 = 0 em regressão linear simples?

    Select the correct option
    Select an option first
    Show solution
    R2=0R^2 = 0 significa que o modelo não explica nenhuma variabilidade de YY; equivale a r=0r = 0. Não implica que o modelo seja totalmente inútil (pode haver relação não-linear). A afirmação correta é que correlação linear é zero.
  15. Ex. 105.15Understanding

    Uma regressão produziu R2=0,85R^2 = 0{,}85 e β^1=2,3>0\hat\beta_1 = 2{,}3 > 0. O que se pode concluir?

    Select the correct option
    Select an option first
    Show solution
    Regressão mede associação, não causalidade. R2=0,85R^2 = 0{,}85 é forte evidência de associação linear positiva (se β^1>0\hat\beta_1 > 0), mas causalidade exige desenho experimental ou raciocínio causal adicional.
  16. Ex. 105.16Modeling

    Um imobiliário de Curitiba coletou dados de 10 apartamentos: área (XX, em m²) e custo de aluguel (YY, em R$/mês). Xˉ=80\bar X=80, Yˉ=1600\bar Y=1600, Sxx=3200S_{xx}=3200, Sxy=64000S_{xy}=64000. Ajuste a reta e preveja o aluguel para um apartamento de 95 m².

    Show solution
    Reta: Y^=20X\hat Y = 20X. Previsão para 95 m²: R\ 1.900/mês. Cada metro quadrado adicional custa, em média, R\ 20 a mais.
    Show step-by-step (with the why)
    1. Identifique variável resposta YY (custo mensal) e preditora XX (área em m²).
    2. Com os dados: Xˉ=80\bar X = 80, Yˉ=1600\bar Y = 1600, Sxx=3200S_{xx} = 3200, Sxy=64000S_{xy} = 64000.
    3. β^1=64000/3200=20\hat\beta_1 = 64000/3200 = 20 (R\$ por m²). β^0=160020×80=0\hat\beta_0 = 1600 - 20 \times 80 = 0.
    4. Reta: Y^=20X\hat Y = 20X. Para X=95X = 95: Y^=1900\hat Y = 1900 reais.
    5. Observação: intercepto zero indica custo proporcional à área — plausível se não há taxa fixa.
  17. Ex. 105.17Modeling

    Crianças de 10 a 25 anos: Xˉ=22\bar X = 22 anos, Yˉ=74\bar Y = 74 kg, sX=2,3s_X = 2{,}3, sY=8,5s_Y = 8{,}5, r=0,82r = 0{,}82. Ajuste a reta usando β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X) e preveja o peso de uma criança de 30 anos.

    Show solution
    β^1=rsY/sX=0,82×8,5/2,33,03\hat\beta_1 = r \cdot s_Y/s_X = 0{,}82 \times 8{,}5/2{,}3 \approx 3{,}03. β^0=743,03×22=7466,6=7,4\hat\beta_0 = 74 - 3{,}03 \times 22 = 74 - 66{,}6 = 7{,}4. Reta: Y^=7,4+3,03X\hat Y = 7{,}4 + 3{,}03 X. Para X=30X = 30: Y^=7,4+90,9=98,3\hat Y = 7{,}4 + 90{,}9 = 98{,}3 kg. Atenção: 30 anos é extrapolação se os dados vão até 25 anos.
  18. Ex. 105.18ModelingAnswer key

    Regressão com n=25n=25, SST=1200SST=1200, R2=0,72R^2=0{,}72. Monte a tabela ANOVA (SSR, SSE, MSR, MSE, F) e teste H0:β1=0H_0: \beta_1 = 0 ao nível 5%.

    Show solution
    Tabela ANOVA: SSR=R2×SST=0,72×1200=864SSR = R^2 \times SST = 0{,}72 \times 1200 = 864; SSE=1200864=336SSE = 1200 - 864 = 336; MSR=864/1=864MSR = 864/1 = 864; MSE=336/23=14,6MSE = 336/23 = 14{,}6; F=864/14,6=59,2F = 864/14{,}6 = 59{,}2. Valor crítico F1,23;0,054,28F_{1,23;\,0{,}05} \approx 4{,}28: rejeita H0H_0.
  19. Ex. 105.19Modeling

    Uma regressão de consumo de água (litros/dia) em temperatura (°C) produziu Y^=50+8X\hat Y = 50 + 8X com R2=0,91R^2=0{,}91 para n=30n=30 pontos. O ponto (15;430)(15; 430) aparece muito longe dos demais. Que procedimento usar para avaliar sua influência?

    Show solution
    O ponto (15;430)(15; 430) está muito distante da reta — pode ser outlier influente. Para verificar: calcular distância de Cook DiD_i ou leverage hiih_{ii}. Se Di>1D_i > 1, o ponto exerce influência excessiva e deve ser investigado (dado incorreto? caso especial?). Não se remove automaticamente — precisa de justificativa substantiva.
  20. Ex. 105.20Modeling

    Uma transportadora registrou número de pedidos XX e custo logístico mensal YY (em R$ mil) para 5 filiais: (10,100)(10,100), (20,180)(20,180), (30,270)(30,270), (40,340)(40,340), (50,400)(50,400). Ajuste a reta.

    Show solution
    Reta: Y^=30+7,6X\hat Y = 30 + 7{,}6 X. Cada pedido adicional eleva o custo logístico em R\$ 7,60 em média.
    Show step-by-step (with the why)
    1. Primeiro, confirme que o gráfico de dispersão mostra relação linear antes de ajustar qualquer reta.
    2. Calcule médias: Xˉ=(10+20+30+40+50)/5=30\bar X = (10+20+30+40+50)/5 = 30; Yˉ=(100+180+270+340+400)/5=258\bar Y = (100+180+270+340+400)/5 = 258.
    3. Sxx=(1030)2++(5030)2=400+100+0+100+400=1000S_{xx} = (10-30)^2+\ldots+(50-30)^2 = 400+100+0+100+400 = 1000.
    4. Sxy=(20)(158)+(10)(78)+0+(10)(82)+(20)(142)=3160+780+0+820+2840=7600S_{xy} = (-20)(-158)+(-10)(-78)+0+(10)(82)+(20)(142) = 3160+780+0+820+2840 = 7600.
    5. β^1=7600/1000=7,6\hat\beta_1 = 7600/1000 = 7{,}6; β^0=2587,6×30=30\hat\beta_0 = 258 - 7{,}6 \times 30 = 30. Reta: Y^=30+7,6X\hat Y = 30 + 7{,}6 X.
    6. Curiosidade: o intercepto de 30 representa o custo fixo mensal estimado (R\$ 30) independente do número de pedidos.
  21. Ex. 105.21Application

    Usando Y^=30+7,6X\hat Y = 30 + 7{,}6X, calcule a previsão e o resíduo para uma filial com X=35X=35 pedidos e custo observado de R$ 310 mil.

    Show solution
    Y^(35)=30+7,6×35=30+266=296\hat Y(35) = 30 + 7{,}6 \times 35 = 30 + 266 = 296 mil R\$. Resíduo: e=310296=14e = 310 - 296 = 14 mil R\. A filial gastou R\ 14 mil a mais do que o previsto para 35 pedidos.
  22. Ex. 105.22Application

    Para a regressão do Exercício 105.20, calcule os 5 resíduos, o SSE e o desvio padrão residual σ^\hat\sigma.

    Show solution
    Para os dados do Exercício 105.20: calcular Y^i\hat Y_i para cada XiX_i e os resíduos eie_i. SSE=ei2SSE = \sum e_i^2. Com n=5n=5 e df=3df=3: MSE=SSE/3MSE = SSE/3. Se SSE360SSE \approx 360, então MSE120MSE \approx 120 e σ^10,95\hat\sigma \approx 10{,}95 mil R\$.
  23. Ex. 105.23Understanding

    O gráfico de resíduos vs. Y^\hat Y tem formato de funil (variância crescente). O que isso indica?

    Select the correct option
    Select an option first
    Show solution
    Padrão em funil no gráfico de resíduos vs. Y^\hat Y indica homocedasticidade violada: a variância dos resíduos aumenta com o nível ajustado. Soluções: transformar YY (ex.: logY\log Y) ou usar erros padrão robustos (HC).
  24. Ex. 105.24Application

    Para a regressão do Exercício 105.20 (Y^=30+7,6X\hat Y = 30 + 7{,}6X, n=5n=5, Xˉ=30\bar X=30, Sxx=1000S_{xx}=1000, σ^10,95\hat\sigma \approx 10{,}95), construa IC 95% para o custo médio de uma filial com X=40X^*=40 pedidos. Use t3;0,025=3,182t_{3;\,0{,}025} = 3{,}182.

    Show solution
    IC 95% para μYX\mu_{Y|X^*}: Y^±tn2σ^1/n+(XXˉ)2/Sxx\hat Y^* \pm t_{n-2} \cdot \hat\sigma \sqrt{1/n + (X^*-\bar X)^2/S_{xx}}. Com X=40X^* = 40, Xˉ=30\bar X = 30, n=5n=5, Sxx=1000S_{xx}=1000, σ^=10,95\hat\sigma = 10{,}95: SE=10,950,2+100/1000=10,95×0,548=6,0SE = 10{,}95\sqrt{0{,}2 + 100/1000} = 10{,}95 \times 0{,}548 = 6{,}0. IC: 334,4±3,182×6,0=(315,3;353,5)334{,}4 \pm 3{,}182 \times 6{,}0 = (315{,}3; 353{,}5).
  25. Ex. 105.25ChallengeAnswer key

    Prove algebricamente que, para regressão linear simples, R2=r2R^2 = r^2 (quadrado do coeficiente de correlação de Pearson).

    Show solution
    R2=SSR/SST=Sxy2/(SxxSyy)=r2R^2 = SSR/SST = S_{xy}^2/(S_{xx}\cdot S_{yy}) = r^2. A identidade vale apenas para regressão simples.
    Show step-by-step (with the why)
    1. Lembre que β^1=Sxy/Sxx\hat\beta_1 = S_{xy}/S_{xx} e r=Sxy/(SxxSyy)r = S_{xy}/(\sqrt{S_{xx}} \cdot \sqrt{S_{yy}}).
    2. Para regressão simples: SSR=β^1Sxy=(Sxy/Sxx)Sxy=Sxy2/SxxSSR = \hat\beta_1 \cdot S_{xy} = (S_{xy}/S_{xx}) \cdot S_{xy} = S_{xy}^2/S_{xx}.
    3. R2=SSR/SST=(Sxy2/Sxx)/Syy=Sxy2/(SxxSyy)R^2 = SSR/SST = (S_{xy}^2/S_{xx})/S_{yy} = S_{xy}^2/(S_{xx} \cdot S_{yy}).
    4. Mas r2=Sxy2/(SxxSyy)r^2 = S_{xy}^2/(S_{xx} \cdot S_{yy}) pela definição de rr.
    5. Portanto R2=r2R^2 = r^2. Macete: isso vale apenas para regressão simples — em regressão múltipla, R2R^2 não é o quadrado de um único coeficiente de correlação.
  26. Ex. 105.26ChallengeAnswer key

    Derive as fórmulas de β^0\hat\beta_0 e β^1\hat\beta_1 por minimização de SSE=(Yiβ0β1Xi)2SSE = \sum (Y_i - \beta_0 - \beta_1 X_i)^2 via cálculo diferencial (equações normais).

    Show solution
    Minimizar SSE=i=1n(Yiβ0β1Xi)2SSE = \sum_{i=1}^n (Y_i - \beta_0 - \beta_1 X_i)^2. Derivar em relação a β0\beta_0 e β1\beta_1 e igualar a zero (equações normais): SSE/β0=2(Yiβ0β1Xi)=0\partial SSE/\partial\beta_0 = -2\sum(Y_i-\beta_0-\beta_1 X_i) = 0 implica β^0=Yˉβ^1Xˉ\hat\beta_0 = \bar Y - \hat\beta_1 \bar X. Substituindo na segunda equação normal: β^1=Sxy/Sxx\hat\beta_1 = S_{xy}/S_{xx}.
  27. Ex. 105.27Proof

    Prove que, para qualquer reta de mínimos quadrados, a soma dos resíduos é zero: i=1nei=0\sum_{i=1}^n e_i = 0.

    Show solution
    Devemos mostrar que ei=0\sum e_i = 0. ei=(Yiβ^0β^1Xi)=Yinβ^0β^1Xi\sum e_i = \sum(Y_i - \hat\beta_0 - \hat\beta_1 X_i) = \sum Y_i - n\hat\beta_0 - \hat\beta_1 \sum X_i. Da equação normal: nβ^0=Yiβ^1Xin\hat\beta_0 = \sum Y_i - \hat\beta_1 \sum X_i, portanto ei=0\sum e_i = 0. Analogamente, Xiei=0\sum X_i e_i = 0 segue da segunda equação normal.
  28. Ex. 105.28Challenge

    Dados resumidos: n=15n=15, Xˉ=12\bar X=12, Yˉ=45\bar Y=45, Sxx=420S_{xx}=420, Sxy=1260S_{xy}=1260, Syy=4800S_{yy}=4800. Calcule: reta ajustada, R2R^2, teste H0:β1=0H_0:\beta_1=0 ao nível 5%.

    Show solution
    Com Sxy=1260S_{xy} = 1260, Sxx=420S_{xx} = 420, Syy=4800S_{yy} = 4800: β^1=3,0\hat\beta_1 = 3{,}0; β^0=453×12=9\hat\beta_0 = 45 - 3 \times 12 = 9. SSR=Sxy2/Sxx=12602/420=3780SSR = S_{xy}^2/S_{xx} = 1260^2/420 = 3780; SSE=48003780=1020SSE = 4800-3780 = 1020; R2=3780/4800=0,7875R^2 = 3780/4800 = 0{,}7875. MSE=1020/(n2)MSE = 1020/(n-2) — precisamos de nn. Se n=15n=15: MSE=78,5MSE = 78{,}5; SE(β^1)=78,5/420=0,432SE(\hat\beta_1) = \sqrt{78{,}5/420} = 0{,}432; T=3,0/0,432=6,94T = 3{,}0/0{,}432 = 6{,}94 com 13 df — altamente significativo.
  29. Ex. 105.29Challenge

    Por que reduzir a variabilidade de XX (estreitar o intervalo amostrado) prejudica a estimação de β1\beta_1? Relacione com a fórmula de SE(β^1)SE(\hat\beta_1).

    Show solution
    Reduzir desvio padrão de XX (i.e., estreitar o intervalo de XX) aumenta SE(β^1)=σ^/SxxSE(\hat\beta_1) = \hat\sigma/\sqrt{S_{xx}} pois SxxS_{xx} diminui. Para estimar β1\beta_1 com precisão, deve-se maximizar SxxS_{xx} — isso é feito cobrindo a maior amplitude possível dos valores de XX no experimento (planejamento de experimentos — design of experiments).
  30. Ex. 105.30Proof

    Prove que os estimadores OLS β^0\hat\beta_0 e β^1\hat\beta_1 são não-viesados, i.e., E[β^j]=βjE[\hat\beta_j] = \beta_j.

    Show solution
    Não-viés de β^1\hat\beta_1: escreva β^1=ciYi\hat\beta_1 = \sum c_i Y_i com ci=(XiXˉ)/Sxxc_i = (X_i-\bar X)/S_{xx}. Sob o modelo: E[β^1]=ciE[Yi]=ci(β0+β1Xi)=β0ci+β1ciXiE[\hat\beta_1] = \sum c_i E[Y_i] = \sum c_i(\beta_0+\beta_1 X_i) = \beta_0 \sum c_i + \beta_1 \sum c_i X_i. Como ci=0\sum c_i = 0 e ciXi=1\sum c_i X_i = 1, segue E[β^1]=β1E[\hat\beta_1] = \beta_1. Analogamente para β^0\hat\beta_0.

Fontes

  • Statistics — OpenStax — Illowsky, Dean · CC-BY · Capítulos 12 (Linear Regression and Correlation). Fonte primária para exemplos, equações e exercícios desta lição.
  • OpenIntro Statistics (4ª ed.) — Diez, Çetinkaya-Rundel, Barr · CC-BY-SA · Capítulo 7 (Introduction to linear regression). Fonte primária para diagnóstico de resíduos, inferência e exercícios com dados reais.
  • Probabilidade e Estatística — Wikilivros — colaborativo · CC-BY-SA · Seção de regressão linear. Referência em PT-BR com notação compatível com o currículo nacional.

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.