Share to: share facebook share twitter share wa share telegram print page

Regressionsanalyse

Die Regressionsanalyse ist ein Instrumentarium statistischer Analyseverfahren, die zum Ziel haben, Beziehungen zwischen einer abhängigen (auch erklärte Variable, Kriterium[svariable], vorhergesagte Variable, Antwortvariable oder Regressand genannt) und einer oder mehreren unabhängigen Variablen (auch erklärende Variable, Prädiktor[variable], Kontrollvariable oder Regressor) zu modellieren. Regressionen werden verwendet, um Zusammenhänge quantitativ zu beschreiben oder Werte der abhängigen Variablen zu prognostizieren.[1] Die häufigste Form der Regressionsanalyse ist die lineare Regression, bei der der Anwender eine Gerade (oder eine komplexere lineare Funktion) findet, die den Daten nach einem bestimmten mathematischen Kriterium am besten entspricht. Beispielsweise berechnet die gewöhnliche Methode der kleinsten Quadrate eine eindeutige Gerade (oder Hyperebene), die die Summe der Abweichungsquadrate zwischen den wahren Daten und dieser Linie (oder Hyperebene), d. h. die Residuenquadratsumme minimiert. Aus bestimmten mathematischen Gründen kann der Anwender den bedingten Erwartungswert der abhängigen Variablen schätzen, wenn die unabhängigen Variablen eine bestimmte Menge von Werten annehmen. Weniger gebräuchliche Formen der Regression verwenden geringfügig unterschiedliche Verfahren zum Schätzen alternativer Lageparameter (z. B. die Quantilsregression) oder zum Schätzen des bedingten Erwartungswertes für eine breitere Klasse nichtlinearer Modelle (z. B. nichtparametrische Regression).

Die Regressionsanalyse wird hauptsächlich zu zwei konzeptionell unterschiedlichen Zwecken verwendet. Erstens wird die Regressionsanalyse häufig für Schätzungen und Vorhersagen verwendet, bei denen sich ihre Verwendung erheblich mit dem Bereich des maschinellen Lernens überschneidet, siehe auch symbolische Regression. Zweitens kann in einigen Situationen eine Regressionsanalyse verwendet werden, um auf kausale Beziehungen zwischen den unabhängigen und abhängigen Variablen zu schließen. Wichtig ist, dass Regressionen für sich genommen nur Beziehungen zwischen einer abhängigen Variablen und einer oder mehrerer unabhängiger Variablen in einem gegebenen Datensatz aufzeigen. Um Regressionen für Vorhersagen zu verwenden oder Kausalzusammenhänge herzuleiten, muss der Anwender sorgfältig begründen, warum bestehende Beziehungen Vorhersagekraft für einen neuen Kontext haben oder warum eine Beziehung zwischen zwei Variablen eine Kausalzusammenhangsinterpretation hat (Korrelation und Kausalzusammenhang). Letzteres ist besonders wichtig, wenn Anwender mithilfe von Beobachtungsdaten kausale Zusammenhänge abschätzen möchten.

Durch die Ergänzung einer Entscheidungsregel wird eine Regression zu einem Klassifikationsverfahren.

Geschichte

Francis Galton
Carl Friedrich Gauß

Die früheste Form der Regression war die Median-Regression (auch Methode der kleinsten absoluten Abweichungen), die um 1760 von Rugjer Josip Bošković vorgeschlagen wurde.[2] Später wurde die Methode der kleinsten Quadrate (französisch méthode des moindres carrés) 1805 von Legendre[3] und 1809 von Gauß veröffentlicht.[4] Beide verwendeten die Methode, um die Umlaufbahnen der Planeten um die Sonne anhand von astronomischen Beobachtungen zu bestimmen. Gauß veröffentlichte eine Weiterentwicklung der Theorie der kleinsten Quadrate im Jahr 1821,[5] die eine theoretische Rechtfertigung seiner Methode der kleinsten Quadrate enthielt. Diese ist heute als Satz von Gauß-Markow bekannt.

Der Begriff Regression wurde im 19. Jahrhundert von Francis Galton, einem Cousin Charles Darwins, geprägt. Er beschrieb damit ein biologisches Phänomen, bekannt als Regression zur Mitte, wonach Nachfahren großer Eltern dazu tendieren, nur durchschnittlich groß zu werden.[6][7] Für Galton hatte Regression nur diese biologische Bedeutung.[8][9] Seine Arbeit wurde jedoch später durch Udny Yule und Karl Pearson in einen allgemeineren statistischen Kontext gesetzt.[10][11] In deren Arbeiten wurde davon ausgegangen, dass die gemeinsame Verteilung der unabhängigen und der abhängigen Variablen normalverteilt ist. Diese Annahme konnte von R. A. Fisher später abgeschwächt werden.[12][13][14] Dieser arbeitete mit der Voraussetzung, dass die bedingte Verteilung der abhängigen Variable normalverteilt ist, die gemeinsame Verteilung jedoch nicht notwendigerweise. In dieser Hinsicht war Fishers Ansatz ähnlicher zu Gauß’ Formulierung von 1821.

Regressionsverfahren sind weiterhin ein aktives Forschungsgebiet. In den letzten Jahrzehnten wurden in verschiedensten Bereichen Schätzmethoden entwickelt, etwa zur robusten Regression, zur nichtparametrischen Regression, im Bereich der bayesschen Statistik, bei fehlenden Daten und bei fehlerbehafteten unabhängigen Variablen.

Anwendungen

Regressionsverfahren haben viele praktische Anwendungen. Die meisten Anwendungen fallen in folgende Kategorien:[15]

  • Vorhersage: Schätzungen der einzelnen Regressionsparameter sind weniger wichtig für die Vorhersage, als der Gesamteinfluss der -Variablen auf die Zielgröße . Dennoch sollten gute Schätzer eine hohe Vorhersagekraft haben.
  • Datenbeschreibung und Erklärung: Der Statistiker verwendet das geschätzte Modell, um die beobachteten Daten zusammenzufassen und zu beschreiben.
  • Parameterschätzung: Die Werte der geschätzten Parameter könnten theoretische Implikationen für das angenommene Modell haben.
  • Variablenauswahl: Es soll herausgefunden werden wie wichtig jede einzelne Prädiktorvariable in der Modellierung der Zielgröße ist. Die Prädiktorvariablen, von denen angenommen wird, dass sie einen wichtigen Anteil an der Erklärung der Variation in leisten, werden beibehalten und diejenigen, die wenig zur Erklärung der Variation in beitragen (oder redundante Information über enthalten), werden ausgelassen.
  • Für die Ausgangsvariable kontrollieren: Es wird ein Ursache-Wirkung-Zusammenhang (d. h. ein kausaler Zusammenhang) zwischen der Zielvariable und den Prädiktorvariablen angenommen. Das geschätzte Modell kann dann verwendet werden, um für die Ausgangsvariable eines Prozesses zu kontrollieren, indem die Eingangsvariablen variiert werden. Durch systematisches Herumexperimentieren kann es möglich sein den optimalen Ausstoß zu erzielen.

Schema einer Regressionsanalyse

Datenaufbereitung

Am Beginn jedes statistischen Verfahrens steht die Aufbereitung der Daten, insbesondere

  • die Plausibilisierung. Hierbei wird geprüft, ob die Daten nachvollziehbar sind. Dies kann manuell oder automatisch anhand von Gültigkeitsregeln erfolgen.
  • der Umgang mit fehlenden Daten. Häufig werden unvollständige Datensätze weggelassen, mitunter werden die fehlenden Daten auch nach bestimmten Verfahren aufgefüllt.
  • die Transformation der Daten. Diese kann aus verschiedenen Gründen erfolgen. Sie kann beispielsweise zu einer besseren Interpretierbarkeit oder Visualisierbarkeit der Daten führen. Sie kann auch dazu dienen, die Daten in eine Form zu bringen, in der die Annahmen des Regressionsverfahrens erfüllt sind. Im Falle der linearen Regression werden etwa ein linearer Zusammenhang zwischen den unabhängigen und der abhängigen Variable sowie Homoskedastizität vorausgesetzt. Es gibt mathematische Hilfsmittel zum Finden einer geeigneten Transformation, im Beispiel der Linearisierung des Zusammenhanges etwa die Box-Cox-Transformation.
  • die Berücksichtigung von Interaktionen (bei linearer Regression). Hierbei wird neben dem Einfluss der unabhängigen Variablen auch der Einfluss mehrerer Variablen gleichzeitig berücksichtigt.

Modellanpassung

In der Praxis wählt der Anwender zuerst ein Modell aus, das er schätzen möchte, und verwendet dann die gewählte Schätzmethode (z. B. die gewöhnliche Kleinste-Quadrate-Schätzung), um die Parameter dieses Modells zu schätzen. Regressionsmodelle umfassen im Allgemeinen die folgenden Komponenten:

  • die unabhängigen Variablen, für die Daten vorliegen und oft im Vektor zusammengefasst werden (hierbei stellt eine Datenreihe dar).
  • die abhängige Variable, für die Daten vorliegen und die häufig mit dem Skalar angegeben wird. Man sagt: „Variable wird auf Variable und regressiert“ oder „Regression von auf und “.[16][17]
  • die unbekannten zu schätzenden Parameter : Sie stellen Skalare dar.
  • die unbeobachtbaren Störgrößen (statistisches Rauschen), die nicht direkt beobachtet werden können und häufig als angegeben werden.

In verschiedenen Anwendungsbereichen der Statistik werden unterschiedliche Terminologien anstelle von abhängige und unabhängige Variablen verwendet (siehe Abhängige und unabhängige Variable#Statistische Bezeichnungen und Konzepte).

In den allermeisten Regressionsmodellen ist eine Funktion von und , wobei diese Beziehung von einer additiven Störgröße überlagert wird, die für nicht modellierte oder unbekannte Bestimmungsfaktoren von stehen kann:

.

Ziel des Anwenders ist es, diejenige Funktion zu schätzen, die am ehesten zu den vorliegenden Daten passt. Um eine Regressionsanalyse durchzuführen, muss die funktionale Form der Funktion angegeben werden. Manchmal basiert die Angabe der Form dieser Funktion auf nicht datenbasierten Erfahrungswissen über die Beziehung zwischen und (die Lineare Regression etwa betrachtet nur lineare Funktionen , logistische Regression betrachtet nur logistische Funktionen). Wenn kein solches Wissen vorhanden ist, kann eine flexiblere bzw. allgemeinere Form für gewählt werden. Beispielsweise kann eine einfache lineare Regression (lineare Einfachregression) angewandt werden, was darauf hindeutet, dass der Forscher glaubt, dass eine angemessene Annäherung für den wahren datengenerierenden Prozess sein könnte.

Sobald der Anwender sein bevorzugtes statistisches Modell festgelegt hat, bieten verschiedene Formen der Regressionsanalyse Werkzeuge zur Schätzung des Parameters . Zum Beispiel findet die Kleinste-Quadrate-Schätzung (einschließlich seiner häufigsten Variante, der gewöhnlichen Kleinste-Quadrate-Schätzung) denjenigen Wert von , der die Residuenquadratsumme minimiert. Eine gegebene Regressionsmethode liefert letztendlich eine Schätzung von , die für gewöhnlich als bezeichnet wird, um die Schätzung von dem wahren (unbekannten) Parameterwert zu unterscheiden, der die Daten generiert hat. Mit dieser Schätzung kann der Anwender dann den angepassten Wert bzw. vorhergesagten Wert (englisch fitted value) zur Vorhersage verwenden oder auch zur Beurteilung, wie genau das Modell die Daten erklären kann. Ob der Anwender grundsätzlich an der Schätzung oder dem vorhergesagten Wert interessiert ist, hängt vom Kontext und den Zielen des Anwenders ab. Die gewöhnliche Kleinste-Quadrate-Schätzung wird oft verwendet, da die geschätzte Funktion eine Schätzung des bedingten Erwartungswertes darstellt.

Alternative Varianten (z. B. sogenannte robuste Schätzverfahren, die den Betrag der Abweichungen minimieren, wie die Median-Regression oder die Quantilsregression) sind jedoch nützlich, wenn Anwender andere Funktionen z. B. nichtlinearer Modelle modellieren möchte.

Es ist wichtig zu beachten, dass genügend Daten vorhanden sein müssen, um ein Regressionsmodell zu schätzen. Angenommen, ein Anwender hat Zugriff auf Datenzeilen mit einer abhängigen und zwei unabhängigen Variablen: . Sei weiterhin angenommen, der Anwender möchte ein einfaches lineares Modell über die Kleinste-Quadrate-Schätzung schätzen. Das zu schätzende Modell lautet dann . Wenn der Anwender nur Zugriff auf Datenpunkte hat, kann er unendlich viele Kombinationen finden, die die Daten gleich gut erklären: Es kann eine beliebige Kombination ausgewählt werden, die erfüllt, die alle zu führen und ist daher eine gültige Lösung, die diejenige, die die Summe der Residuenquadrate (Residuenquadratsumme) minimiert. Um zu verstehen, warum es unendlich viele Möglichkeiten gibt, ist zu beachten, dass das System der -Gleichungen für 3 Unbekannte gelöst werden muss, wodurch das System unterbestimmt wird. Alternativ kann man unendlich viele dreidimensionale Ebenen visualisieren, die durch Fixpunkte verlaufen.

Ein allgemeinerer Ansatz ist ein Kleinste-Quadrate-Modell mit unterschiedlichen Parametern zu schätzen. Dazu müssen unterschiedliche Datenpunkte vorliegen. Wenn ist, gibt es im Allgemeinen keinen Satz von Parametern, der perfekt zu den Daten passt. Die Größe erscheint häufig in der Regressionsanalyse und wird im Modell als Anzahl der Freiheitsgrade bezeichnet. Um ein Kleinste-Quadrate-Modell zu schätzen, müssen außerdem die unabhängigen Variablen linear unabhängig sein, d. h. man muss keine der unabhängigen Variablen rekonstruieren können, indem man die verbleibenden unabhängigen Variablen addiert und multipliziert. Diese Bedingung stellt sicher, dass die Produktsummenmatrix eine invertierbare Matrix ist und daher eine Lösung existiert.

Modellvalidierung

Ein wichtiger Schritt der Regressionsanalyse ist die Modellvalidierung. Hierbei wird überprüft, ob das Modell eine gute Beschreibung des Zusammenhangs ist. Die Modellvalidierung umfasst die

  • Residuenanalyse. Viele Regressionsverfahren treffen Annahmen über die Residuen des Modells. So wird z. B. eine bestimmte Verteilung, konstante Varianz oder fehlende Autokorrelation unterstellt. Da die Residuen Ergebnis des Verfahrens sind, kann die Prüfung der Annahmen erst im Nachhinein erfolgen. Typisches Hilfsmittel zur Überprüfung der Verteilung ist das Quantil-Quantil-Diagramm.
  • Überanpassung. Dieses Phänomen tritt auf, wenn zu viele unabhängige Variablen im Modell berücksichtigt werden. Ein Verfahren zum Testen auf Überanpassung ist das Kreuzvalidierungsverfahren.
  • Untersuchung der Daten auf Ausreißer und einflussreiche Datenpunkte. Hierbei wird überprüft, welche Datensätze nicht zur ermittelten Funktion passen (Ausreißer) und welche Daten die ermittelte Funktion stark beeinflussen. Für diese Datensätze empfiehlt sich eine gesonderte Untersuchung. Mathematische Hilfsmittel zur Ermittlung von Ausreißern und einflussreichen Punkten sind Cook- und Mahalanobis-Abstand.
  • Multikollinearität zwischen den unabhängigen Variablen (bei linearen Modellen). Wenn es einen linearen Zusammenhang zwischen den unabhängigen Variablen gibt, dann kann das zum einen die numerische Stabilität des Verfahrens beeinträchtigen und zum anderen die Interpretation des Modells bzw. der angepassten Funktion erschweren. Hilfsmittel zum Quantifizieren der Kollinearität sind der Varianzinflationsfaktor und die Korrelationsmatrix.

Vorhersage

Das validierte Modell kann zur Vorhersage von Werten von bei gegebenen Werten von herangezogen werden. Häufig wird neben dem prognostizierten Wert von auch ein Vorhersageintervall angegeben, um so die Unsicherheit der Vorhersage abzuschätzen.

Bei Vorhersagen im Wertebereich der zur Modellanpassung verwendeten Daten spricht man von Interpolation. Vorhersagen außerhalb dieses Datenbereichs nennt man Extrapolation. Vor der Durchführung von Extrapolationen sollte man sich gründlich mit den dabei implizierten Annahmen auseinandersetzen.[18]

Variablenauswahl und Modellvergleich

Ist das Ziel der Analyse die Ermittlung derjenigen unabhängigen Variablen, die besonders stark in Zusammenhang mit der abhängigen Variablen stehen, werden häufig mehrere Modelle mit jeweils unterschiedlichen unabhängigen Variablen erstellt und diese Modelle verglichen. Um zwei Modelle miteinander zu vergleichen, werden in der Regel Kennzahlen wie das Bestimmtheitsmaß oder Informationskriterien benutzt.

Es gibt automatisierte Verfahren wie die sogenannte schrittweise Regression, die sukzessive dasjenige Modell zu ermitteln versuchen, welches den gesuchten Zusammenhang am besten erklärt. Die Anwendung solcher Verfahren wird jedoch kontrovers diskutiert.

Des Weiteren gibt es in der bayesschen Statistik Verfahren, die aus mehreren Modellen ein neues Modell ableiten (durch sogenanntes averaging) und so versuchen, die aus der Modellwahl entstehende Unsicherheit zu verringern.

Einige Regressionsverfahren

Das folgende Beispiel wird zur Illustration der verschiedenen Verfahren benutzt. Analog zu Mincer (1974) wurden aus dem Current Population Survey 1985 zufällig 534 Beobachtungen mit folgenden Variablen gezogen:[19]

  • : natürlicher Logarithmus des Stundenlohns,
  • : Berufsausbildung in Jahren,
  • : Berufserfahrung in Jahren (= Alter – Berufsausbildung – 6).

Mincer untersuchte mit Hilfe der nach ihm benannten Mincer-Einkommensgleichung den Zusammenhang zwischen dem Logarithmus des Stundenlohns (abhängige Variable) und der Berufsausbildung und -erfahrung (unabhängige Variablen). In den folgenden Grafiken findet sich links eine räumliche Darstellung der Regressionsfläche und rechts ein Kontourplot. Positive Residuen sind rötlich, negative Residuen sind bläulich gezeichnet und je heller die Beobachtung desto kleiner ist der Absolutbetrag des Residuums.

Grundlegende Verfahren

Lineare Regression

Bei der linearen Regression wird das Modell so spezifiziert, dass die abhängige Variable eine Linearkombination der Parameter (Regressionsparameter) ist, aber nicht notwendigerweise der unabhängigen Variablen . Zum Beispiel modelliert die einfache lineare Regression die Abhängigkeit mit einer unabhängigen Variable :

.

Bei der multiplen linearen Regression werden mehrere unabhängige Variablen oder Funktionen der unabhängigen Variablen berücksichtigt. Wird zum Beispiel der Term zur vorigen Regression hinzugefügt, so ergibt sich:

.

Obwohl der Ausdruck auf der rechten Seite quadratisch in der unabhängigen Variable ist, ist der Ausdruck linear in den Parametern , und . Damit ist dies auch eine lineare Regressionsgleichung.

Zur Bestimmung der Modellparameter wird die Methode der kleinsten Quadrate verwendet.

Nichtparametrische Regression

Bei nichtparametrischen Regressionsverfahren wird die Form des funktionalen Zusammenhangs f nicht vorgegeben, sondern weitestgehend aus den Daten hergeleitet. Bei der Schätzung der unbekannten Regressionsfunktion an der Stelle gehen die Daten nahe diesem Punkt mit größerem Gewicht ein als Datenpunkte, die weit entfernt von diesem liegen.

Zur Schätzung haben sich verschiedene Regressionsverfahren etabliert:

Nadaraya-Watson-Schätzer
Hierbei wird die Regressionsfunktion als gewichtete Summe der naheliegende Beobachtungswerte berechnet. Die Gewichte werden mittels Kerndichteschätzung bestimmt und dann eine
  • lokal konstante lineare Regression (Nadaraya-Watson-Schätzer),
  • lokal lineare Regression (lokal linearer Schätzer) oder
  • lokal polynomiale Regression (lokal polynomialer Schätzer)
durchgeführt.
Bei der Methode der multivariaten adaptiven Regressions-Splines (MARS) wird die abhängige Variable als Linearkombination von sogenannten Hockeystick-Funktionen (bzw. Produkten von Hockeystickfunktionen) dargestellt.

Semiparametrische Regression

Ein Nachteil der nichtparametrischen Regressionen ist, dass sie am Fluch der Dimensionalität leiden. D. h. je mehr erklärende Variablen es gibt, desto mehr Beobachtungen sind notwendig, um an einem beliebigen Punkt die unbekannte Regressionsfunktion zuverlässig zu schätzen. Daher wurde eine Reihe von semi-parametrischen Modellen etabliert, die die lineare Regression erweitern bzw. nutzen:

Hier wird die unbekannte Regressionsfunktion als Summe nichtparameterischer linearer Einfachregressionen der Variablen dargestellt:
Beim partiell linearen Modell geht ein Teil der Variablen linear ein, insbesondere binäre Variablen.
  • Index-Modelle

Hier wird die unbekannte Regressionsfunktion ebenfalls als Summe nichtparameterischer linearer Einfachregressionen von Indices dargestellt:

Im Fall spricht man vom Single-Index-Modell; für gibt es die Projection-Pursuit-Regression.

Robuste Regression

Regressionsverfahren, die auf der Kleinste-Quadrate-Schätzung oder der Maximum-Likelihood-Schätzung beruhen, sind nicht robust gegenüber Ausreißern. Robuste Regressionsverfahren wurden entwickelt, um diese Schwäche der klassischen Methode zu umgehen. So können zum Beispiel alternativ M-Schätzer eingesetzt werden.

Verallgemeinerte Verfahren

Verallgemeinerte lineare Modelle

Bei der klassischen linearen Regression wird vorausgesetzt, dass die Störgrößen normalverteilt sind. Die Modellannahme wird bei den verallgemeinerten Modellen abgeschwächt, wo die Störgrößen eine Verteilung aus der Verteilungsklasse der exponentiellen Familie besitzen können. Dies wird möglich durch die Verwendung

Ein Spezialfall der verallgemeinerten linearen Modelle ist die logistische Regression. Wenn die Antwortvariable eine kategoriale Variable ist, die nur zwei oder endlich viele Werte annehmen darf, verwendet man häufig die logistische Regression.

Binäre logistische Regression:

mit (abhängig von Verteilungsklasse der Störgrößen). Eine Alternative wäre das Probit-Modell.

Verallgemeinerte semiparametrische Modelle

Diese Idee ist auch für die semiparametrischen Modelle übernommen worden:

  • Verallgemeinerte additive Modelle (englisch generalized additive models, kurz: GAM)
    .

Eine besondere Art der verallgemeinerten additiven Modelle stellen die sogenannten verallgemeinerten additiven Modelle für Lage-, Skalen- und Formparameter dar.

  • Verallgemeinerte partiell lineare Modelle (englisch generalized partial linear models, kurz: GPLM)
    .
  • Verallgemeinerte additive partiell lineare Modelle (englisch generalized additive partial linear models, kurz: GAPLM)
    .

Tensorregression

Bei der Tensorregression werden Regressionsmodelle verwendet, welche Tensoren beinhalten. Solche Modelle sind vor allem bei hochdimensionalen oder großen Daten interessant. Viele klassische Regressionsmodelle, wie die verallgemeinerten linearen Modelle, besitzen auch ein Analogon in der Tensorwelt.

Spezielle Verfahren

Autoregressive Modelle

Wenn die Datenpunkte geordnet sind (z. B. wenn es sich bei den Daten um eine Zeitreihe handelt), dann ist es etwa in autoregressiven Modellen und autoregressiven bedingt heteroskedastischen Modellen möglich, vorhergehende Daten als „unabhängige“ Variable zu verwenden.

Siehe auch

Literatur

  • Norman R. Draper, Harry Smith: Applied Regression Analysis. Wiley, New York 1998.
  • Ludwig Fahrmeir, Thomas Kneib, Stefan Lang: Regression: Modelle, Methoden und Anwendungen. Springer Verlag, Berlin / Heidelberg / New York 2007, ISBN 978-3-540-33932-8.
  • Dieter Urban, Jochen Mayerl: Regressionsanalyse: Theorie, Technik und Anwendung. 2., überarb. Auflage. VS Verlag, Wiesbaden 2006, ISBN 3-531-33739-4.
  • M.-W. Stoetzer: Regressionsanalyse in der empirischen Wirtschafts- und Sozialforschung – Eine nichtmathematische Einführung mit SPSS und Stata. Berlin 2017, ISBN 978-3-662-53823-4.

Einzelnachweise

  1. Klaus Backhaus: Multivariate Analysemethoden eine anwendungsorientierte Einführung. Hrsg.: SpringerLink. Springer, Berlin 2006, ISBN 3-540-29932-7.
  2. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 105.
  3. A. M. Legendre: Nouvelles méthodes pour la détermination des orbites des comètes. 1805. “Sur la Méthode des moindres quarrés” erscheint als Anhang.
  4. C. F. Gauß: Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientum. 1809.
  5. C. F. Gauß: Theoria combinationis observationum erroribus minimis obnoxiae. 1821/1823.
  6. Robert G. Mogull: Second-Semester Applied Statistics. Kendall/Hunt Publishing Company, 2004, ISBN 0-7575-1181-3, S. 59.
  7. Francis Galton: Kinship and Correlation (reprinted 1989). In: Statistical Science. Band 4, Nr. 2, 1989, JSTOR:2245330.
  8. Francis Galton: Typical laws of heredity. In: Nature. 15, 1877, S. 492–495, 512–514, 532–533. (Galton uses the term "reversion" in this paper, which discusses the size of peas.)
  9. Francis Galton. Presidential address, Section H, Anthropology. (1885) (Galton verwendet den Begriff "Regression" in diesem Artikel, welcher die Größe von Menschen untersucht.).
  10. G. Udny Yule: On the Theory of Correlation. In: J. Royal Statist. Soc. 1897, S. 812–54, JSTOR:2979746.
  11. Karl Pearson, G. U. Yule, Norman Blanchard, Alice Lee: The Law of Ancestral Heredity. In: Biometrika. 1903, JSTOR:2331683.
  12. R. A. Fisher: The goodness of fit of regression formulae, and the distribution of regression coefficients. In: J. Royal Statist. Soc. Band 85, 1922, S. 597–612.
  13. Ronald A. Fisher: Statistical Methods for Research Workers. 12. Auflage. Oliver and Boyd, Edinburgh 1954 (yorku.ca).
  14. John Aldrich: Fisher and Regression. In: Statistical Science. Band 20, Nr. 4, 2005, S. 401–417, JSTOR:20061201.
  15. Alvin C. Rencher, G. Bruce Schaalje: Linear models in statistics. (PDF; 5,6 MB) John Wiley & Sons, 2008, S. 2.
  16. Robert M. Kunst: Einführung in die Empirische Wirtschaftsforschung. University of Vienna and Institute for Advanced Studies Vienna, 2007 (univie.ac.at [PDF]).
  17. Universität Zürich: Einfache lineare Regression. 18. Februar 2021 (uzh.ch).
  18. C. L. Chiang: Statistical methods of analysis. World Scientific, 2003, ISBN 981-238-310-7 - page 274 section 9.7.4 "interpolation vs extrapolation".
  19. Jacob A. Mincer: Schooling, Experience, and Earnings. National Bureau of Economic Research, 1974, ISBN 978-0-87014-265-9 (nber.org [abgerufen am 3. Juli 2011]).

This information is adapted from Wikipedia which is publicly available.

Read other articles:

هذه المقالة يتيمة إذ تصل إليها مقالات أخرى قليلة جدًا. فضلًا، ساعد بإضافة وصلة إليها في مقالات متعلقة بها. (نوفمبر 2015) جولي بيل جولي بيل في عام 2005 معلومات شخصية الميلاد 21 أكتوبر 1958 (العمر 65 سنة)[1]بومونت بولاية تكساس، الولايات المتحدة.[1] مواطنة الولايات المتحدة  الزو

Spanish actor For the politician, see José Ballesta. In this Spanish name, the first or paternal surname is Ballesta and the second or maternal family name is Muñoz. Juan José BallestaBornJuan José Ballesta Muñoz (1987-11-12) 12 November 1987 (age 36)Parla, Community of Madrid, SpainOther namesJuanjo BallestaYears active1997–present Juan José Ballesta Muñoz, also known as Juanjo Ballesta (born 12 November 1987) is a Spanish actor. Biography Born on 12 November 198…

Museum in Amsterdam, Netherlands TropenmuseumThe Tropenmuseum in 2016Location of the museum in AmsterdamFormer nameKoloniaal Museum (Colonial Museum)Established1864 (1864)LocationLinnaeusstraat 2, Amsterdam, NetherlandsCoordinates52°21′46″N 4°55′21″E / 52.362692°N 4.922517°E / 52.362692; 4.922517TypeAnthropological museumCollection size340,000 objects and photographsVisitors197,000 visitors (2010)FounderFrederick van EedenDirectorWayne Modest & Mariek…

Ministry of agriculture in Somalia Ministry of Agriculture and IrrigationWasaaradda Beeraha iyo WaraabkaCoat of arms of SomaliaAgency overviewFormedSeptember 1960JurisdictionSomaliaHeadquartersMogadishuAgency executiveDr. Said Hussein Iid, Minister of Agriculture and Irrigation of SomaliaParent agencyCabinet of Somalia The Ministry of Agriculture and Irrigation of Somalia (MOAIOS) (Somali: Wasaaradda Beeraha iyo Waraabka ee Soomaaliya) is a ministry responsible for Agriculture in Somalia. The th…

Outdoor National Hockey League game Not to be confused with NHL 100 Classic. NHL Centennial Classic 123OT Total Detroit Red Wings 0130 4 Toronto Maple Leafs 0041 5 DateJanuary 1, 2017VenueBMO FieldCityToronto, OntarioAttendance40,148[1] The NHL Centennial Classic (branded as the Scotiabank NHL Centennial Classic for sponsorship reasons) was a regular season outdoor National Hockey League (NHL) game that was held on January 1, 2017. The game featured the Toronto Maple Leafs taking on the …

Georges Danton Detail uit een portret van Danton (1792), Musée Carnavalet. Geboren Arcis-sur-Aube, 26 oktober 1759 Overleden Parijs, 5 april 1794 Partij Montagnards Handtekening Politieke functies 1792 Minister van Justitie 1793 23e Voorzitter Nationale Conventie Portaal    Politiek Frankrijk Dantons gezicht is enigszins gehavend vanwege een confrontatie in zijn jeugd met een stier, een aantal varkens en de pokken Georges Jacques Danton (Arcis-sur-Aube, 26 oktober 1759 – Parijs, 5 a…

  此条目的主題是台中農田水利會的小水力示範電廠。关于台灣電力公司所屬的水力發電廠,請見「大甲溪發電廠后里機組」。 后里圳低落差示範電廠后里圳低落差示範電廠廠房外觀國家/地区 中華民國(臺灣)坐標24°19′28″N 120°43′18″E / 24.3244°N 120.7217°E / 24.3244; 120.7217現況運行中始建日期1986年建造費用新臺幣1600萬元持有單位農田水利署臺中…

Coordenadas: 45° 54' 45 N 6° 13' 23 E Dingy-Saint-Clair   Comuna francesa    Localização Dingy-Saint-ClairLocalização de Dingy-Saint-Clair na França Coordenadas 45° 54' 45 N 6° 13' 23 E País  França Região Auvérnia-Ródano-Alpes Departamento Alta Saboia Características geográficas Área total 34,12 km² População total (2018) [1] 1 485 hab. Densidade 43,5 hab./km² Código Postal ​74230 Código INSEE …

Family of fishes Zanclidae Scientific classification Domain: Eukaryota Kingdom: Animalia Phylum: Chordata Class: Actinopterygii Order: Acanthuriformes Suborder: Acanthuroidei Family: ZanclidaeBleeker, 1876[1] Zanclidae is a family of marine ray-finned fishes belonging to the suborder Acanthuroidei within the order Acanthuriformes. It contains one extant species, the Moorish idol (Zanclus cornutus) and an extinct species.[2] Genera and species Zanclidae has the following taxa clas…

Partial differential equation describing the evolution of temperature in a region Animated plot of the evolution of the temperature in a square metal plate as predicted by the heat equation. The height and redness indicate the temperature at each point. The initial state has a uniformly hot hoof-shaped region (red) surrounded by uniformly cold region (yellow). As time passes the heat diffuses into the cold region. In mathematics and physics, the heat equation is a certain partial differential eq…

Artikel ini sebagian besar atau seluruhnya berasal dari satu sumber. Tolong bantu untuk memperbaiki artikel ini dengan menambahkan rujukan ke sumber lain yang tepercaya. Untuk YouTuber Korea-Indonesia, lihat Korea Reomit. Hansol 한솔그룹 韓松製紙株式會社JenisChaebolIndustriPembuatan kertas, kimia, bioteknologiDidirikan1965; 57 tahun lalu (1965)KantorpusatJung-gu, Seoul, SCA, Korea SelatanTokohkunciDong-gil ChoSitus webwww.hansol.com  HansolHangul한솔 Alih AksaraHansolMcCu…

Moritzburg, Sachsen Puri Moritzburg (Jagdschloss Moritzburg) merupakan salah satu kastel yang paling mengesankan di Sachsen. Kastil ini terletak di Moritzburg, dekat Dresden dan dibangun oleh Raja August II. Kastil ini memiliki empat menara bundar dan terletak di sebuah pulau simetris di tengah danau buatan. Kastil ini dinamakan seperti adipati Moritz dari Sachsen, yang membangun pondok berburu di lokasi tersebut antara tahun 1542 dan 1546. Sejumlah hutan dan danau yang mengelilingi kastil terse…

American non-profit organization U.S. Russia FoundationFounded2008 (2008)PurposeRussia-United States relationsLocationWashington, DC, United StatesOrigins32nd G8 summitArea served United States, RussiaKey peopleJohn Beyrle[1](Chairman)Matthew Rojansky[2](President & CEO)Websiteusrf.us The U.S. Russia Foundation (USRF) is an American non-profit organization founded in 2008 that aims to strengthen relations between the United States and Russia and to promote the developmen…

American politician Craig WilliamsMember of the Pennsylvania House of Representativesfrom the 160th districtIncumbentAssumed office January 5, 2021Preceded byStephen Barrar Personal detailsBorn (1965-11-07) November 7, 1965 (age 58)Selma, Alabama, U.S.Political partyRepublicanSpouseJenniferChildren4EducationDuke University (BA)University of Florida (JD)Columbia University (LLM)Military serviceAllegiance United StatesBranch/service United States Marine CorpsRankColo…

2014 song by Katy Perry BirthdaySingle by Katy Perryfrom the album Prism ReleasedApril 21, 2014GenreDiscoLength3:35LabelCapitolSongwriter(s) Katy Perry Lukasz Gottwald Max Martin Bonnie McKee Henry Walter Producer(s) Dr. Luke Max Martin Cirkut Katy Perry singles chronology Dark Horse (2013) Birthday (2014) This Is How We Do (2014) Music videoBirthday on YouTube Birthday is a song by American singer Katy Perry from her fourth studio album, Prism (2013). She co-wrote the song with Bonnie McKee and…

Mammalian protein found in Homo sapiens NF1Available structuresPDBOrtholog search: PDBe RCSB List of PDB id codes2D4Q, 2E2X, 3P7Z, 3PEG, 3PG7IdentifiersAliasesNF1, NFNS, VRNF, WSS, neurofibromin 1External IDsOMIM: 613113 MGI: 97306 HomoloGene: 141252 GeneCards: NF1 Gene location (Human)Chr.Chromosome 17 (human)[1]Band17q11.2Start31,094,927 bp[1]End31,382,116 bp[1]Gene location (Mouse)Chr.Chromosome 11 (mouse)[2]Band11 B5|11 46.74 cMStart79,230,519 bp[2 …

American computer-animated fantasy film This article is about the film. For the video game, see Brave (video game). For the soundtrack, see Brave (soundtrack). BraveTheatrical release posterDirected by Mark Andrews Brenda Chapman Screenplay by Mark Andrews Steve Purcell Brenda Chapman Irene Mecchi Story byBrenda ChapmanProduced byKatherine SarafianStarring Kelly Macdonald Emma Thompson Billy Connolly Julie Walters Robbie Coltrane Kevin McKidd Craig Ferguson Cinematography Robert Anderson (camera…

Dr. Thee Kian Wie (lahir di Batavia, 20 April 1935 - meninggal 8 Februari 2014 di usia 79 tahun) adalah seorang pakar ekonomi, penulis, dan peneliti senior Indonesia. Ia merupakan peneliti ahli dalam bidang ekonomika, khususnya sejarah ekonomi dan perkembangan industri. Keberadaannya sebagai peneliti sangat disegani baik di tingkat nasional maupun internasional. Pendidikan Universitas Wisconsin, Amerika Serikat (Ph.D., 1969) Universitas Indonesia (Fakultas Ekonomi, 1959) Penghargaan Tanda Kehorm…

Centrale nucléaire de KaliningradAdministrationLocalisation Neman RussieCoordonnées 54° 56′ 26″ N, 22° 09′ 59″ EOpérateur RosenergoatomConstruction 25 février 2010Statut En constructionCaractéristiquesType d'installation Centrale nucléairePuissance installée 2 340 MWSite web www.baltaes.rumodifier - modifier le code - modifier Wikidata La centrale nucléaire de Kaliningrad, aussi dénommée centrale nucléaire de la Baltique (en russe …

Trijata (Dewanagari: त्रिजटा; ,IAST: Trijaṭā, त्रिजटा) adalah salah satu tokoh dalam wiracarita Hindu Ramayana. Dalam naskah Sanskerta dikisahkan bahwa ia adalah seorang raksasi (raksasa wanita) yang ditugaskan oleh Rahwana untuk menemani Sita di taman Asoka. Namun dalam perkembangan dan adaptasi kisah Ramayana di masa-masa selanjutnya, ia dikisahkan sebagai putri Wibisana, sehingga merupakan keponakan Rahwana. Menurut versi pewayangan, ibunya bernama Dew…

Kembali kehalaman sebelumnya

Lokasi Pengunjung: 3.142.134.0