Math ClubMath Club
v1 · padrão canônico

Lição 105 — Regressão linear simples

Modelo OLS, estimadores de mínimos quadrados, R², resíduos, inferência sobre a inclinação. Fundamento do aprendizado supervisionado e da econometria.

Used in: Stochastik LK alemão (Klasse 12) · H2 Mathematics Singapura (§14) · Math B japonês

Y^=β^0+β^1X,β^1=SxySxx\hat{Y} = \hat\beta_0 + \hat\beta_1 X, \qquad \hat\beta_1 = \frac{S_{xy}}{S_{xx}}
Choose your door

Rigorous notation, full derivation, hypotheses

Rigorose Definition

Modell der einfachen linearen Regression

"The regression equation is written as y^=a+bx\hat{y} = a + bx, where bb is the slope and aa is the yy-intercept." — OpenStax Statistics, §12.3

Zerlegung der Varianz und R²

"The coefficient of determination r2r^2 is the square of the correlation coefficient rr. It tells you the fraction of total variability in the response that is explained by the least-squares line." — OpenIntro Statistics, §7.2, S. 331

Inferenz über die Steigung

YXeAngepasste GeradeDatenResiduum eᵢ

Kleinste-Quadrate-Gerade (golden) minimiert die Summe der Quadrate der Residuen (orange). Jedes Residuum e ist der vertikale Abstand des Punktes von der Geraden.

Gelöste Beispiele

Exercise list

30 exercises · 7 with worked solution (25%)

Application 15Understanding 4Modeling 5Challenge 4Proof 2
  1. Ex. 105.1Application

    Daten: n=6n=6, Xˉ=4\bar X = 4, Yˉ=10\bar Y = 10, Sxx=20S_{xx} = 20, Sxy=30S_{xy} = 30. Berechnen Sie β^0\hat\beta_0 und β^1\hat\beta_1.

  2. Ex. 105.2Application

    Paare (X,Y)(X,Y): (2,5)(2,5), (4,9)(4,9), (6,11)(6,11), (8,15)(8,15), (10,20)(10,20). Berechnen Sie die Kleinste-Quadrate-Gerade.

  3. Ex. 105.3Application

    Verwenden Sie Y^=1,2+1,8X\hat Y = 1{,}2 + 1{,}8X (vorherige Übung), um YY für X=7X=7 und X=12X=12 vorherzusagen. Identifizieren Sie, welche Vorhersage eine Extrapolation ist.

  4. Ex. 105.4Application

    Für die Daten von Übung 105.1: Xˉ=4\bar X=4, Yˉ=10\bar Y=10, Sxx=20S_{xx}=20, Sxy=30S_{xy}=30, Syy=52S_{yy}=52. Berechnen Sie R2R^2 und interpretieren Sie.

  5. Ex. 105.5ApplicationAnswer key

    Der Pearson-Korrelationskoeffizient zwischen zwei Variablen ist r=0,87r = 0{,}87. Wie groß ist das R2R^2 der einfachen Regression von YY auf XX?

  6. Ex. 105.6ApplicationAnswer key

    Regression des Jahresgehalts (in tausend R$) auf Berufserfahrung ergab Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X. Interpretieren Sie β^0\hat\beta_0 und β^1\hat\beta_1.

  7. Ex. 105.7Application

    Verwenden Sie Y^=32,4+2,5X\hat Y = 32{,}4 + 2{,}5X. Ein Mitarbeiter mit 14 Jahren Erfahrung verdient R$ 72.000/Jahr. Berechnen Sie das Residuum.

  8. Ex. 105.8ApplicationAnswer key

    Fünf beobachtete Werte von YY: (8,10,12,9,11)(8, 10, 12, 9, 11) mit Yˉ=10\bar Y = 10. Das SSE der Regression ist 3,2. Berechnen Sie SST, SSR und R2R^2.

  9. Ex. 105.9Application

    Eine Regression mit n=20n=20 erbrachte SSE=48,6SSE = 48{,}6. Berechnen Sie MSEMSE und σ^\hat\sigma und interpretieren Sie.

  10. Ex. 105.10Application

    β^1=3,6\hat\beta_1 = 3{,}6, σ^=2,1\hat\sigma = 2{,}1, Sxx=144S_{xx} = 144. Berechnen Sie SE(β^1)SE(\hat\beta_1) und die Teststatistik TT.

  11. Ex. 105.11Application

    n=30n=30, β^1=1,4\hat\beta_1 = 1{,}4, SE(β^1)=0,38SE(\hat\beta_1) = 0{,}38. Konstruieren Sie 95% KI für β1\beta_1 und interpretieren Sie.

  12. Ex. 105.12Application

    r=0,73r = -0{,}73, sX=4s_X = 4, sY=6s_Y = 6. Wie ist das Vorzeichen von β^1\hat\beta_1? Berechnen Sie β^1\hat\beta_1 mit der Relation β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X).

  13. Ex. 105.13UnderstandingAnswer key

    Welche der folgenden Aussagen zur Kleinste-Quadrate-Geraden ist RICHTIG?

  14. Ex. 105.14Understanding

    Welche ist die richtige Interpretation von R2=0R^2 = 0 in einfacher linearer Regression?

  15. Ex. 105.15Understanding

    Eine Regression erbrachte R2=0,85R^2 = 0{,}85 und β^1=2,3>0\hat\beta_1 = 2{,}3 > 0. Was kann man schließen?

  16. Ex. 105.16Modeling

    Ein Immobilienmakler in Curitiba sammelte Daten von 10 Wohnungen: Fläche (XX, in m²) und Mietkosten (YY, in R$/Monat). Xˉ=80\bar X=80, Yˉ=1600\bar Y=1600, Sxx=3200S_{xx}=3200, Sxy=64000S_{xy}=64000. Passen Sie die Gerade an und prognostizieren Sie die Miete für eine Wohnung von 95 m².

  17. Ex. 105.17Modeling

    Kinder von 10 bis 25 Jahren: Xˉ=22\bar X = 22 Jahre, Yˉ=74\bar Y = 74 kg, sX=2,3s_X = 2{,}3, sY=8,5s_Y = 8{,}5, r=0,82r = 0{,}82. Passen Sie die Gerade mit β^1=r(sY/sX)\hat\beta_1 = r(s_Y/s_X) an und prognostizieren Sie das Gewicht eines 30-jährigen Kindes.

  18. Ex. 105.18ModelingAnswer key

    Regression mit n=25n=25, SST=1200SST=1200, R2=0,72R^2=0{,}72. Erstellen Sie die ANOVA-Tabelle (SSR, SSE, MSR, MSE, F) und testen Sie H0:β1=0H_0: \beta_1 = 0 auf dem 5%-Niveau.

  19. Ex. 105.19Modeling

    Eine Regression des Wasseverbrauchs (Liter/Tag) gegen Temperatur (°C) ergab Y^=50+8X\hat Y = 50 + 8X mit R2=0,91R^2=0{,}91 für n=30n=30 Punkte. Der Punkt (15;430)(15; 430) liegt weit entfernt. Welches Verfahren verwenden, um seinen Einfluss zu bewerten?

  20. Ex. 105.20Modeling

    Ein Transportunternehmen registrierte Bestellmenge XX und monatliche Logistikkosten YY (in R$ tausend) für 5 Filialen: (10,100)(10,100), (20,180)(20,180), (30,270)(30,270), (40,340)(40,340), (50,400)(50,400). Passen Sie die Gerade an.

  21. Ex. 105.21Application

    Verwenden Sie Y^=30+7,6X\hat Y = 30 + 7{,}6X, berechnen Sie die Vorhersage und das Residuum für eine Filiale mit X=35X=35 Bestellungen und beobachtete Kosten von R$ 310.000.

  22. Ex. 105.22Application

    Für die Regression von Übung 105.20, berechnen Sie die 5 Residuen, das SSE und die Residuenstandardabweichung σ^\hat\sigma.

  23. Ex. 105.23Understanding

    Das Residuendiagramm vs. Y^\hat Y hat Trichterform (wachsende Varianz). Was zeigt das an?

  24. Ex. 105.24Application

    Für die Regression von Übung 105.20 (Y^=30+7,6X\hat Y = 30 + 7{,}6X, n=5n=5, Xˉ=30\bar X=30, Sxx=1000S_{xx}=1000, σ^10,95\hat\sigma \approx 10{,}95), konstruieren Sie 95% KI für die durchschnittlichen Kosten einer Filiale mit X=40X^*=40 Bestellungen. Verwenden Sie t3;0,025=3,182t_{3;\,0{,}025} = 3{,}182.

  25. Ex. 105.25ChallengeAnswer key

    Beweisen Sie algebraisch, dass für einfache lineare Regression R2=r2R^2 = r^2 (Quadrat des Pearson-Korrelationskoeffizienten) gilt.

  26. Ex. 105.26ChallengeAnswer key

    Leiten Sie die Formeln für β^0\hat\beta_0 und β^1\hat\beta_1 durch Minimierung von SSE=(Yiβ0β1Xi)2SSE = \sum (Y_i - \beta_0 - \beta_1 X_i)^2 mittels Differentialrechnung (Normalgleichungen) her.

  27. Ex. 105.27Proof

    Beweisen Sie, dass für eine beliebige Kleinste-Quadrate-Gerade die Summe der Residuen null ist: i=1nei=0\sum_{i=1}^n e_i = 0.

  28. Ex. 105.28Challenge

    Zusammengefasste Daten: n=15n=15, Xˉ=12\bar X=12, Yˉ=45\bar Y=45, Sxx=420S_{xx}=420, Sxy=1260S_{xy}=1260, Syy=4800S_{yy}=4800. Berechnen Sie: angepasste Gerade, R2R^2, teste H0:β1=0H_0:\beta_1=0 auf dem 5%-Niveau.

  29. Ex. 105.29Challenge

    Warum schadet die Verringerung der Variabilität von XX (Verengung des abgetasteten Intervalls) der Schätzung von β1\beta_1? Beziehen Sie sich auf die Formel für SE(β^1)SE(\hat\beta_1).

  30. Ex. 105.30Proof

    Beweisen Sie, dass die OLS-Schätzer β^0\hat\beta_0 und β^1\hat\beta_1 erwartungstreu sind, d.h. E[β^j]=βjE[\hat\beta_j] = \beta_j.

Quellen

  • Statistics — OpenStax — Illowsky, Dean · CC-BY · Kapitel 12 (Linear Regression and Correlation). Primäre Quelle für Beispiele, Gleichungen und Übungen dieser Lektion.
  • OpenIntro Statistics (4. Aufl.) — Diez, Çetinkaya-Rundel, Barr · CC-BY-SA · Kapitel 7 (Introduction to linear regression). Primäre Quelle für Residuendiagnose, Inferenz und Übungen mit realen Daten.
  • Probabilidade e Estatística — Wikilivros — kollaborativ · CC-BY-SA · Sektion lineare Regression. Referenz in PT-BR mit Notation kompatibel zum nationalen Lehrplan.

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.