Math ClubMath Club
v1 · padrão canônico

Lección 106 — Regresión múltiple

Modelo con p predictores, solución matricial OLS, R² ajustado, multicolinealidad, selección de variables y diagnóstico de supuestos.

Used in: Stochastik LK alemão (Klasse 12) · H2 Mathematics Singapura (§15) · econometria introdutória

β^=(XTX)1XTy\hat{\boldsymbol\beta} = (X^TX)^{-1}X^T\mathbf{y}
Choose your door

Rigorous notation, full derivation, hypotheses

Definición rigurosa

Modelo de regresión lineal múltiple

"The multiple regression model is y=β0+β1x1+β2x2++βkxk+εy = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_k x_k + \varepsilon. The coefficient βi\beta_i measures the expected change in yy per unit change in xix_i when all other predictors are held constant." — OpenIntro Statistics, §8.1, p. 362

Métricas de ajuste

Inferencia

Matriz de diseño X (n=4, p=2)1 X₁₁ X₁₂1 X₂₁ X₂₂1 X₃₁ X₃₂1 X₄₁ X₄₂n×(p+1)×β₀β₁β₂(p+1)×1=Ŷ₁Ŷ₂Ŷ₃Ŷ₄n×1+ε₁ε₂ε₃ε₄n×1

Representación matricial del modelo: Y=Xβ+ε\mathbf{Y} = X\boldsymbol\beta + \boldsymbol\varepsilon. La primera columna de 1s en XX genera el intercepto β0\beta_0.

Ejemplos resueltos

Exercise list

20 exercises · 5 with worked solution (25%)

Application 10Understanding 3Modeling 3Challenge 3Proof 1
  1. Ex. 106.1ApplicationAnswer key

    Regresión: Y^=50+3,2X1+28X2+5,5X3\hat Y = 50 + 3{,}2X_1 + 28X_2 + 5{,}5X_3 (precio en BRL mil, superficie m², habitaciones, planta). Interprete cada coeficiente.

  2. Ex. 106.2Application

    Usando Y^=50+3,2X1+28X2+5,5X3\hat Y = 50 + 3{,}2X_1 + 28X_2 + 5{,}5X_3, calcule la predicción y el residuo para un piso de 80 m², 3 habitaciones, 5ª planta con precio observado de BRL 450 mil.

  3. Ex. 106.3ApplicationAnswer key

    n=40n=40, p=3p=3 predictores, SST=2000SST=2000, SSE=800SSE=800. Calcule R2R^2 y Rˉ2\bar R^2.

  4. Ex. 106.4ApplicationAnswer key

    n=50n=50. Tres modelos con p=1,3,6p=1,3,6 predictores y SSE/SST=0,40SSE/SST = 0{,}40; 0,350{,}35; 0,320{,}32. Calcule Rˉ2\bar R^2 de cada uno e indique el preferible.

  5. Ex. 106.5Application

    n=60n=60, p=4p=4, SST=3600SST=3600, R2=0,72R^2=0{,}72. Construya la tabla ANOVA y contraste el modelo al nivel del 5%.

  6. Ex. 106.6Application

    Regresiones auxiliares para 3 predictores: R12=0,30R_1^2=0{,}30, R22=0,70R_2^2=0{,}70, R32=0,92R_3^2=0{,}92. Calcule los VIF e identifique la multicolinealidad severa.

  7. Ex. 106.7Application

    Regresión de la nota del ENEM en renta familiar (X1X_1) y participación en programa de refuerzo (DD: 1=sí, 0=no): Y^=480+8,2X1+12,4D\hat Y = 480 + 8{,}2X_1 + 12{,}4D, n=200n=200. Interprete β^D=12,4\hat\beta_D = 12{,}4.

  8. Ex. 106.8Application

    n=50n=50, p=3p=3, β^1=2,8\hat\beta_1=2{,}8, SE(β^1)=0,7SE(\hat\beta_1)=0{,}7. Contraste H0:β1=0H_0:\beta_1=0 al nivel del 5% (bilateral).

  9. Ex. 106.9Application

    n=50n=50, p=3p=3, β^2=5,2\hat\beta_2=5{,}2, SE(β^2)=1,8SE(\hat\beta_2)=1{,}8. Construya un IC del 95% para β2\beta_2. Use t46;0,0252,013t_{46;\,0{,}025}\approx 2{,}013.

  10. Ex. 106.10Application

    Cuatro de los cinco residuos de una regresión son: 3,23{,}2; 1,5-1{,}5; 0,8-0{,}8; 2,12{,}1. ¿Cuál es el quinto residuo?

  11. Ex. 106.11Understanding

    ¿Qué afirmación sobre R2R^2 y R2R^2 ajustado es CORRECTA?

  12. Ex. 106.12Understanding

    ¿Cuál es el principal efecto práctico de la multicolinealidad en la regresión múltiple?

  13. Ex. 106.13Understanding

    ¿Qué afirmación sobre coeficientes parciales en regresión múltiple es CORRECTA?

  14. Ex. 106.14Modeling

    Regresión del gasto mensual familiar (BRL mil, en reales) sobre 4 predictores socioeconómicos: n=80n=80, SST=18000SST=18000, SSE=5400SSE=5400. Calcule MSEMSE, σ^\hat\sigma y Rˉ2\bar R^2.

  15. Ex. 106.15Modeling

    Modelo: Y^=45+2,5X18D\hat Y = 45 + 2{,}5X_1 - 8D (salario en BRL mil, experiencia en años, DD=1 si mujer). Calcule salarios para (a) hombre, 10 años; (b) mujer, 10 años. ¿Cómo incluir la interacción para verificar si la brecha varía con la experiencia?

  16. Ex. 106.16ModelingAnswer key

    Un investigador tiene un modelo de regresión con 2 predictores (R2=0,65R^2=0{,}65, Rˉ2=0,64\bar R^2=0{,}64) y considera añadir un tercer predictor. Describa dos criterios para decidir si debe incluirlo.

  17. Ex. 106.17Challenge

    Demuestre que el hat matrix H=X(XTX)1XTH = X(X^TX)^{-1}X^T es idempotente: H2=HH^2 = H.

  18. Ex. 106.18Challenge

    Datos: n=6n=6 observaciones con Y=(10,14,18,12,16,20)Y=(10,14,18,12,16,20), X1=(1,2,3,2,3,4)X_1=(1,2,3,2,3,4), X2=(5,4,3,6,5,4)X_2=(5,4,3,6,5,4). Escriba la matriz de diseño XX y enuncie el procedimiento para calcular β^=(XTX)1XTy\hat{\boldsymbol\beta} = (X^TX)^{-1}X^T\mathbf{y} (no es necesario ejecutar la inversión a mano — describa los pasos).

  19. Ex. 106.19ProofAnswer key

    Demuestre que en cualquier regresión con intercepto, i=1nei=0\sum_{i=1}^n e_i = 0, usando la ortogonalidad XTe=0X^T\mathbf{e} = \mathbf{0}.

  20. Ex. 106.20Challenge

    Muestre que añadir un predictor al modelo aumenta Rˉ2\bar R^2 si y solo si el estadístico T|T| del nuevo predictor es mayor que 1.

Fuentes

  • OpenIntro Statistics (4ª ed.) — Diez, Çetinkaya-Rundel, Barr · CC-BY-SA · Capítulo 8 (Multiple and logistic regression). Fuente primaria para la interpretación de coeficientes, Rˉ2\bar R^2, multicolinealidad y variables dummy.
  • Statistics — OpenStax — Illowsky, Dean · CC-BY · Capítulo 13 (Linear Regression and Correlation — Multiple). Fuente para tablas ANOVA de regresión múltiple y prueba F global.
  • Probabilidade e Estatística — Wikilivros — colaborativo · CC-BY-SA · Sección de regresión múltiple. Referencia en PT-BR con notación matricial.

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.