Blog

Einfache lineare Regression

04.08.2014 10:00
von Sarah Wagner

Was ist Regression?

Die Durchführung einer Regression (lat. regredi = zurückgehen) hat das Ziel, anhand von mindestens einer unabhängigen Variablen x (auch erklärende Variable genannt) die Eigenschaften einer anderen abhängigen Variablen y zu prognostizieren. Wenn die abhängige Variable nur von einer unabhängigen Variablen beschrieben wird, so spricht man von einer einfachen linearen Regression, wird sie von mehreren unabhängigen Variablen beschrieben, handelt es sich um eine multiple lineare Regression. Einige Beispielfragestellungen der Regression könnten wie folgt lauten:

  • Der Leiter einer großen Möbelfirma möchte wissen, wie viel Geld er in die Werbung für sein Unternehmen investieren soll und ob diese sich in den Verkaufszahlen niederschlägt
  • In Berlin soll im Auftrag des Polizeipräsidenten untersucht werden, ob eine höhere Präsenz der Polizei die Kriminalitätsrate senkt
  • Der Schulleiter einer Privatschule ist daran interessiert, ob und in welchem Maße die Zahl der Anmeldungen für die erste Klasse sinken würden, wenn er 1000 Euro mehr an jährlichen Gebühren verlangt
  • Ein Winzer möchte überprüfen, inwiefern das Wetter einen Einfluss auf die Qualität des gewonnenen Weines hat
  • Eine Supermarktkette möchte herausfinden, wie viel ein Haushalt mit durchschnittlichem Einkommen pro Monat für Lebensmittel ausgibt
  • Die Veranstalter eines jährlich stattfindenden Musikfestivals müssen vorhersagen, ob die Zahl der Festivalbesucher die nächsten zehn Jahre über mindestens konstant bleibt, damit sich die Investition in eine neue Bühnen- und Lichtanlage lohnt

Wie funktioniert Regression?

Die Genauigkeit der Prognose hängt bei einer Regression von der Korrelation bzw. der Stärke des linearen Zusammenhangs zwischen der unabhängigen und der abhängigen Variablen ab. Je höher die Korrelation, desto genauer ist die Prognose. Man kann den Zusammenhang visualisieren, indem man die Daten in einem Streudiagramm (engl.: "Scatterplot") darstellt, wie in Abbildung 1 zu sehen. Der Idealfall eines perfekten linearen Zusammenhangs, bei dem man exakt mithilfe des Wertes der unabhängigen Variable x den Wert der abhängigen Variable y vorhersagen kann, kommt in der Realität nicht vor. Die Datenpunkte bilden meist Wolken, aus welchen zwar ein positiver oder negativer Zusammenhang herausgelesen werden kann, eine genaue Aussage zu treffen ist jedoch rein visuell nicht möglich.

Abbildung 1:

Aber wie kann nun eine möglichst genaue Prognose erstellt werden, wenn kein perfekter linearer Zusammenhang vorliegt? Man könnte frei Hand viele verschiedene Geraden durch die Datenwolke ziehen, die die Beziehung zwischen x und y beschreiben. Das Ziel ist aber, die beste Gerade zu finden, also diejenige, die den linearen Zusammenhang zwischen x und y am besten beschreibt. Die Methode der kleinsten Quadrate liefert die Lösung. Diese Methode bestimmt zu der Datenwolke die Gerade, welche die Summe der quadrierten Vorhersagefehler minimiert. So liefert die Methode der kleinsten Quadrate ein Schätzverfahren mit dem die Koeffizienten der sog. Regressionsgeraden, die den Zusammenhang zwischen x und y bestmöglich beschreibt, ermittelt werden können. Der Vorhersagefehler wird im Übrigen auch oft als Fehlerterm, Störgröße oder Residuum bezeichnet (Plural: Residuen).

Bezüglich der Interpretation von Zusamenhängen ist Vorsicht geboten: Ein linearer Zusammenhang zwischen zwei Variablen begründet noch keinen kausalen Zusammenhang. Zum Beispiel ist die Anzahl der Motorradunfälle positiv korreliert mit dem Auftreten von gutem Wetter, das bedeutet aber nicht, dass mehr Motorradunfälle geschehen, WEIL gutes Wetter ist.  

Warum wird die Summe der quadrierten Residuen verwendet?

Die Quadrierung ist nötig, weil sich die positiven und negativen Fehler bei einer reinen Aufsummierung gegenseitig aufheben würden. Eine Alternative bestünde in der Verwendung der Beträge der Fehler. Letztere Variante ist jedoch mathematisch weniger vorteilhaft. Zudem gibt es Fälle, in denen die Minimierung der Summe der Beträge der Fehler zu uneindeutigen oder der Intuition widersprechenden Lösungen führt.

Hinweis: Umgangssprachlich wird mit "schätzen" meist ein unsystematisches heuristisches Vorgehen beschrieben. Statistiker verstehen darunter jedoch ein systematisches Verfahren, mit dessen Hilfe im Kontext der Regression – durch die Methode der kleinsten Quadrate – die Koeffizienten der optimalen Regressionsgerade bestimmt werden.

Annahmen des einfachen linearen Regressionsmodells

Damit die Schätzung der Regressionsgeraden mit der kleinsten-Quadrate-Methode gewissen Optimalitätskriterien (s. Best Linear Unbiased Estimator, "BLUE") genügt, müssen einige Annahmen erfüllt sein:

    • Die unabhängige Variable x hat einen linearen Einfluss auf y, dieser berechnet sich für jedes x durch \( y_i = \beta_0 + \beta_1 \cdot x_i + e_i \) . Der Index i zeigt an, dass es sich jeweils um einen bestimmten Wert i aus der Gesamtanzahl der Datenpunkte n handelt.
    • \( E(e_i) = 0 \)
      Der Erwartungswert des Vorhersagefehlers ist 0, äquivalent dazu ist der Erwartungswert von y \( E(y_i) = \beta_0 + \beta_1 \cdot x_i \). Das bedeutet, dass keinerlei Systematik in den Fehlern stecken sollte. Diese Annahme ist i.d.R. unproblematisch, solange das Modell die Konstante \( \beta_0 \) enthält.
    • \( Var(e_i) = \sigma^2 = Var(y_i) \)
      Die Varianz des Vorhersagefehlers (und damit auch von y) ist konstant. Bei konstanter Varianz spricht man von Homoskedastizität, ist die Varianz nicht konstant, dann liegt Heteroskedastizität vor (Abbildung 2). Ist die Annahme der Homoskedastizität verletzt, können die kleinsten-Quadrate-Schätzer zwar noch verwendet werden, obwohl diese dann nicht mehr "optimale" Ergebnisse liefern.
    • \( Cov(e_i, e_j) = 0 \quad \text{für} \ i \ne j \)
      Die Fehler sind unkorreliert. Diese Annahme kann bei Zeitreihen verletzt sein. Ihre Verletzung kann auch ein Symptom für einen nicht-linearen Zusammenhang zwischen x und y sein.
    • Die unabhängige Variable x ist keine Zufallsvariable, außerdem muss x verschiedene Werte annehmen (also Varianz aufweisen).
    • Eine optionale (!) Zusatzannahme ist, dass die Fehler normalverteilt sind mit Erwartungswert 0 und Varianz \( \sigma^2 \):  
    • \( e_i \sim N(0, \sigma^2) \)
      Über diese Annahme gibt es in der Praxis viele Missverständnisse. Häufig wird behauptet, die Werte von y müssen einer Normalverteilung folgen (was so nicht stimmt). Darüber hinaus ist diese Annahme für die Schätzung der Koeffizienten nach der Methode der kleinsten Qudrate irrelevant. Sie wird lediglich benötigt, um Signifikanztests (z.B. ANOVA oder T-Test) sinnvoll interpretieren zu können.

Abbildung 2:

Streudiagramme (links) und zugehörige Residuenplots (rechts) 

Was ist ein Residuenplot?

Neben dem Streudiagramm, in dem x- und y-Werte gegeneinander abgetragen werden, ist der sog. "Residuenplot" (s. Abbildung 2, rechts) ein etabliertes Instrument, um zu überprüfen, ob die Annahmen der (einfachen) linearen Regression erfüllt sind. Im Residuenplot werden auf der  horizontalen Achse die vorhergesagten y-Werte \( \hat{y} \) abgetragen und auf der vertikalen Achse die geschätzten Residuen \( \hat{e} \). Im Residuenplot lassen sich insbesondere Heteroskedastizität und Abhängigkeitsstrukturen in den Residuen gut erkennen.

Darstellung und Interpretation des einfachen linearen Regressionsmodells

Die geschätzte Regressionsgerade, die wir durch die Methode der kleinsten Quadrate erhalten haben, wird durch die folgende Gleichung beschrieben:

$$ \hat{y_i} = \hat{\beta_0} + \hat{\beta_1} \cdot x_i  $$

Die Dächer auf den Koeffizienten lassen erkennen, dass es sich um die Schätzwerte handelt.

Wer sich noch an den Mathematikunterricht erinnern kann, weiß, dass eine Gerade immer durch den Schnittpunkt mit der y-Achse (hier \( \hat{\beta_0} \)) und den Anstieg (auch "Steigungskoeffizient", hier \( \hat{\beta_1} \)) bestimmt wird. Nehmen wir wie anfangs als Beispiel erwähnt an, dass wir den linearen Zusammenhang zwischen den Ausgaben für Werbung und der Absatzmenge im Auftrag der Geschäftsführung einer Möbelfirma untersuchen wollen. Als abhängige Variable y steht die Absatzmenge auf der linken Seite der Gleichung, die unabhängige (oder auch erklärende) Variable x auf der rechten Seite ist die Summe, die für Werbung ausgegeben wurde. Sowohl Absatz wie auch Werbeausgaben wurden jeweils in 20 Filialen (i=1, 2, ..., 20) mit unterschiedlichen Einzugsgebieten erfasst. Um die Geradengleichung zu einem Regressionsmodell zu erweitern, fügen wir der Gleichung die Vorhersagefehler \( e_i \) hinzu.

$$ y_i = \hat{\beta_0} + \hat{\beta_1} \cdot x_i + \hat{e_i} $$

In diesem Regressionsmodell ist der Koeffizient \( \hat{\beta_0 } \) der Schnittpunkt der geschätzten Regressionsgeraden mit der y-Achse, also der Punkt, wo \( x=0 \) ist. Das heißt nichts anderes, als dass der Wert \( \hat{\beta_0 } \) die Menge an Absatz ist, die erzielt werden würde, wenn der Inhaber der Möbelfirma 0 Euro in Werbung investiert. Praktisch sollte bei der Interpretation von \( \hat{\beta_0 } \) immer sehr vorsichtig vorgegangen werden, da um den Wert \( x=0 \) oft keine Datenpunkte existieren, die in die Berechnung der Regressionsgeraden mit einfließen könnten. 

In sample vs. out of sample

Wenn das Verständnis eines Zusammenhangs im Vordergrund steht, interessiert uns bei der Regression nur der sog. "in sample"-Bereich, der von der Datenwolke abgegrenzt wird. Liegt der Fokus eher auf der Prognose, kann zusätzlich auch der Bereich außerhalb der Datenwolke ("out of sample") relevant werden. Dabei kann es passieren, dass der Zusammenhang außerhalb der Datenwolke nicht mehr linear ist. Ein Beispiel ist der Zusammenhang zwischen Körpergewicht und Größe bei erwachsenen Menschen (Abbildung 3). Die Datenwolke ist für die Variable x = Körpergröße begrenzt auf den Bereich zwischen 150 und 200 cm. Die Körpergrößen darunter stellen bei Erwachsenen eher eine Ausnahme dar und werden selten (oder in kleinen Stichproben gar nicht) beobachtet. So sollte man die Regressionsgerade unterhalb von 150 cm (out of sample) hier nicht einfach auch für die Interpretation des Zusammenhangs zwischen Körpergewicht und Größe bei Kindern verwenden, da sie ja nicht mit den entsprechenden Daten von Kindern berechnet wurde und somit auch nichts über diese aussagt. Genauso wenig Sinn macht in dem Fall auch die Interpretation von \( \hat{\beta_0 } \). Der Schnittpunkt der Regressionsgeraden mit der y-Achse ist im Beispiel aus Abbildung 3 weit im negativen Bereich. Demnach hätte ein Mensch, der 0 cm groß ist, ein negatives Körpergewicht (welches dem Achsenabschnitt \( \hat{\beta_0 } \) der Geraden entspräche). Würden die Daten von Kindern in das Modell mit aufgenommen werden, ergäbe sich insgesamt ein nicht-linearer Zusammenhang zwischen Größe und Gewicht. Auch ohne diese zusätzliche Komplexität ist das in der Abbildung gezeigte Modell absolut brauchbar, solange sich die Interpretation auf den in-sample-Bereich beschränkt.

Abbildung 3:

Der Koeffizient \( \hat{\beta_1 } \) ist der Anstieg der Regressionsgeraden, welcher definiert ist als die Ableitung des Erwartungswertes von y nach x.

$$ \frac{\delta E(y)}{\delta x} = \beta_1 $$
So gibt \( \hat{\beta_1} \) an, um wie viel die Absatzmenge sich verändert, wenn beispielsweise ein zusätzlicher Euro in Werbung investiert wird. Ein Euro ist in diesem Zusammenhang natürlich sehr wenig. Wird z.B. darüber nachgedacht, das Budget für Werbung um 10.000 Euro zu erhöhen, wäre der erwartete Effekt auf den Absatz \( 10.000 \cdot \hat{\beta_1 } \). Zu beachten bleibt auch hier, dass der Zusammenhang out of sample anderen Regeln folgen kann (hier könnte z.B. ein Sättigungseffekt eintreten). Zuletzt bleibt noch der Vorhersagefehler \( \hat{e_i} \). Da kein perfekter Zusammenhang zwischen dem Preis x und der Absatzmenge y vorliegt (dann wären alle \( \hat{e_i} = 0 \)), benötigen wir den Fehlerterm \( \hat{e_i} \) im Regressionsmodell, der den Abstand zwischen dem tatsächlichen Wert ( \( y_i \) ) und dem von uns vorhergesagten Wert ( \( \hat{y_i} \) ) misst. Der Vorhersagefehler steht ersatzweise für alle nicht beobachtbaren bzw. unberücksichtigten Variablen, die die Absatzmenge - neben dem Preis - noch beeinflussen. Ein Maß dafür, wie gut das gewählte Regressionsmodell ist, stellt das Bestimmtheitsmaß \(R^2\) dar. Es gibt an, welcher Anteil der Variation von y durch unser Regressionsmodell erklärt wird. Näheres zum \(R^2\) finden Sie in der Artikelserie über das Bestimmtheitsmaß R².

 

Abbildung 4:

Weitere Teile der Artikelserie über Regression:

Zurück