Math ClubMath Club
v1 · padrão canônico

Lección 105 — Regresión lineal simple

Modelo OLS, estimadores de mínimos cuadrados, R², residuos, inferencia sobre la pendiente. Fundamento del aprendizaje supervisado y la econometría.

Used in: Stochastik LK alemán (Klasse 12) · H2 Mathematics Singapur (§14) · Math B japonés

Y^=β^0+β^1X,β^1=SxySxx\hat{Y} = \hat\beta_0 + \hat\beta_1 X, \qquad \hat\beta_1 = \frac{S_{xy}}{S_{xx}}
Choose your door

Rigorous notation, full derivation, hypotheses

Definición rigurosa

Modelo de regresión lineal simple

"The regression equation is written as y^=a+bx\hat{y} = a + bx, where bb is the slope and aa is the yy-intercept." — OpenStax Statistics, §12.3

Descomposición de la varianza y R²

"The coefficient of determination r2r^2 is the square of the correlation coefficient rr. It tells you the fraction of total variability in the response that is explained by the least-squares line." — OpenIntro Statistics, §7.2, p. 331

Inferencia sobre la pendiente

YXeRecta ajustadaDatosResiduo eᵢ

Recta de mínimos cuadrados (dorada) minimizando la suma de los cuadrados de los residuos (naranjas). Cada residuo e es la distancia vertical del punto a la recta.

Ejemplos resueltos

Exercise list

30 exercises · 7 with worked solution (25%)

Application 15Understanding 4Modeling 5Challenge 4Proof 2
  1. Ex. 105.1Application

    Datos: n=6n=6, Xˉ=4\bar X = 4, Yˉ=10\bar Y = 10, Sxx=20S_{xx} = 20, Sxy=30S_{xy} = 30. Calcule β^0\hat\beta_0 y β^1\hat\beta_1.

  2. Ex. 105.2Application

    Pares (X,Y)(X,Y): (2,5)(2,5), (4,9)(4,9), (6,11)(6,11), (8,15)(8,15), (10,20)(10,20). Calcule la recta de mínimos cuadrados.

  3. Ex. 105.3Application

    Usando Y^=1,2+1,8X\hat Y = 1{,}2 + 1{,}8X (ejercicio anterior), prediga YY para X=7X=7 y X=12X=12. Identifique cuál predicción es extrapolación.

  4. Ex. 105.4Application

    Para los datos del Ejercicio 105.1: Xˉ=4\bar X=4, Yˉ=10\bar Y=10, Sxx=20S_{xx}=20, Sxy=30S_{xy}=30, Syy=52S_{yy}=52. Calcule R2R^2 e interprete.

  5. Ex. 105.5ApplicationAnswer key

    El coeficiente de correlación de Pearson entre dos variables es r=0,87r = 0{,}87. ¿Cuál es el R2R^2 de la regresión simple de YY en XX?

  6. Ex. 105.6ApplicationAnswer key

    Regresión de salario anual (en mil R$) en años de experiencia produjo Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X. Interprete β^0\hat\beta_0 y β^1\hat\beta_1.

  7. Ex. 105.7Application

    Usando Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X, un empleado con 14 años de experiencia gana R$ 72 mil/año. Calcule el residuo.

  8. Ex. 105.8ApplicationAnswer key

    Cinco valores observados de YY: (8,10,12,9,11)(8, 10, 12, 9, 11) con Yˉ=10\bar Y = 10. El SSE de la regresión es 3,2. Calcule SST, SSR y R2R^2.

  9. Ex. 105.9Application

    Una regresión con n=20n=20 produjo SSE=48,6SSE = 48{,}6. Calcule MSEMSE y σ^\hat\sigma e interprete.

  10. Ex. 105.10Application

    β^1=3,6\hat\beta_1 = 3{,}6, σ^=2,1\hat\sigma = 2{,}1, Sxx=144S_{xx} = 144. Calcule SE(β^1)SE(\hat\beta_1) y la estadística TT.

  11. Ex. 105.11Application

    n=30n=30, β^1=1,4\hat\beta_1 = 1{,}4, SE(β^1)=0,38SE(\hat\beta_1) = 0{,}38. Construya IC 95% para β1\beta_1 e interprete.

  12. Ex. 105.12Application

    r=0,73r = -0{,}73, sX=4s_X = 4, sY=6s_Y = 6. ¿Cuál es el signo de β^1\hat\beta_1? Calcule β^1\hat\beta_1 usando la relación β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X).

  13. Ex. 105.13UnderstandingAnswer key

    ¿Cuál de las afirmaciones sobre la recta de mínimos cuadrados es CORRECTA?

  14. Ex. 105.14Understanding

    ¿Cuál es la interpretación correcta de R2=0R^2 = 0 en regresión lineal simple?

  15. Ex. 105.15Understanding

    Una regresión produjo R2=0,85R^2 = 0{,}85 y β^1=2,3>0\hat\beta_1 = 2{,}3 > 0. ¿Qué se puede concluir?

  16. Ex. 105.16Modeling

    Un inmobiliario de Curitiba recopiló datos de 10 apartamentos: área (XX, en m²) y costo de alquiler (YY, en R$/mes). Xˉ=80\bar X=80, Yˉ=1600\bar Y=1600, Sxx=3200S_{xx}=3200, Sxy=64000S_{xy}=64000. Ajuste la recta y prediga el alquiler para un apartamento de 95 m².

  17. Ex. 105.17Modeling

    Niños de 10 a 25 años: Xˉ=22\bar X = 22 años, Yˉ=74\bar Y = 74 kg, sX=2,3s_X = 2{,}3, sY=8,5s_Y = 8{,}5, r=0,82r = 0{,}82. Ajuste la recta usando β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X) y prediga el peso de un niño de 30 años.

  18. Ex. 105.18ModelingAnswer key

    Regresión con n=25n=25, SST=1200SST=1200, R2=0,72R^2=0{,}72. Monte la tabla ANOVA (SSR, SSE, MSR, MSE, F) y pruebe H0:β1=0H_0: \beta_1 = 0 al nivel 5%.

  19. Ex. 105.19Modeling

    Una regresión de consumo de agua (litros/día) en temperatura (°C) produjo Y^=50+8X\hat Y = 50 + 8X con R2=0,91R^2=0{,}91 para n=30n=30 puntos. El punto (15;430)(15; 430) aparece muy lejos de los demás. ¿Qué procedimiento usar para evaluar su influencia?

  20. Ex. 105.20Modeling

    Una transportista registró número de pedidos XX y costo logístico mensual YY (en R$ mil) para 5 filiales: (10,100)(10,100), (20,180)(20,180), (30,270)(30,270), (40,340)(40,340), (50,400)(50,400). Ajuste la recta.

  21. Ex. 105.21Application

    Usando Y^=30+7,6X\hat Y = 30 + 7{,}6X, calcule la predicción y el residuo para una filial con X=35X=35 pedidos y costo observado de R$ 310 mil.

  22. Ex. 105.22Application

    Para la regresión del Ejercicio 105.20, calcule los 5 residuos, el SSE y la desviación estándar residual σ^\hat\sigma.

  23. Ex. 105.23Understanding

    El gráfico de residuos vs. Y^\hat Y tiene forma de embudo (varianza creciente). ¿Qué indica esto?

  24. Ex. 105.24Application

    Para la regresión del Ejercicio 105.20 (Y^=30+7,6X\hat Y = 30 + 7{,}6X, n=5n=5, Xˉ=30\bar X=30, Sxx=1000S_{xx}=1000, σ^10,95\hat\sigma \approx 10{,}95), construya IC 95% para el costo medio de una filial con X=40X^*=40 pedidos. Use t3;0,025=3,182t_{3;\,0{,}025} = 3{,}182.

  25. Ex. 105.25ChallengeAnswer key

    Pruebe algebraicamente que, para regresión lineal simple, R2=r2R^2 = r^2 (cuadrado del coeficiente de correlación de Pearson).

  26. Ex. 105.26ChallengeAnswer key

    Derive las fórmulas de β^0\hat\beta_0 y β^1\hat\beta_1 por minimización de SSE=(Yiβ0β1Xi)2SSE = \sum (Y_i - \beta_0 - \beta_1 X_i)^2 vía cálculo diferencial (ecuaciones normales).

  27. Ex. 105.27Proof

    Pruebe que, para cualquier recta de mínimos cuadrados, la suma de los residuos es cero: i=1nei=0\sum_{i=1}^n e_i = 0.

  28. Ex. 105.28Challenge

    Datos resumidos: n=15n=15, Xˉ=12\bar X=12, Yˉ=45\bar Y=45, Sxx=420S_{xx}=420, Sxy=1260S_{xy}=1260, Syy=4800S_{yy}=4800. Calcule: recta ajustada, R2R^2, pruebe H0:β1=0H_0:\beta_1=0 al nivel 5%.

  29. Ex. 105.29Challenge

    ¿Por qué reducir la variabilidad de XX (estrechar el intervalo muestreado) perjudica la estimación de β1\beta_1? Relacione con la fórmula de SE(β^1)SE(\hat\beta_1).

  30. Ex. 105.30Proof

    Pruebe que los estimadores OLS β^0\hat\beta_0 y β^1\hat\beta_1 son no sesgados, es decir, E[β^j]=βjE[\hat\beta_j] = \beta_j.

Fuentes

  • Statistics — OpenStax — Illowsky, Dean · CC-BY · Capítulos 12 (Linear Regression and Correlation). Fuente primaria para ejemplos, ecuaciones y ejercicios de esta lección.
  • OpenIntro Statistics (4ª ed.) — Diez, Çetinkaya-Rundel, Barr · CC-BY-SA · Capítulo 7 (Introduction to linear regression). Fuente primaria para diagnóstico de residuos, inferencia y ejercicios con datos reales.
  • Probabilidade e Estatística — Wikilivros — colaborativo · CC-BY-SA · Sección de regresión lineal. Referencia en PT-BR con notación compatible con el currículo nacional.

Updated on 2026-05-11 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.