Multikollinearität ist die starke lineare Abhängigkeitsbeziehung zwischen mehr als zwei erklärenden Variablen in einer multiplen Regression, die die Gauss-Markov-Annahme verletzt, wenn sie exakt ist.
Mit anderen Worten, Multikollinearität ist die hohe Korrelation zwischen mehr als zwei erklärenden Variablen.
Wir betonen, dass die lineare Beziehung (Korrelation) zwischen erklärenden Variablen stark sein muss. Sehr häufig sind die erklärenden Variablen der Regression korreliert. Es sollte daher darauf hingewiesen werden, dass diese Beziehung stark, aber niemals perfekt sein muss, damit sie als Fall von Multikollinearität betrachtet wird. Die lineare Beziehung wäre perfekt, wenn der Korrelationskoeffizient 1 wäre.
Wenn diese starke lineare (aber nicht perfekte) Beziehung nur zwischen zwei erklärenden Variablen auftritt, sprechen wir von Kollinearität. Es wäre Multikollinearität, wenn die starke lineare Beziehung zwischen mehr als zwei unabhängigen Variablen auftritt.
Die Gauss-Markov-Annahme über exakte Nicht-Multikollinearität definiert, dass die erklärenden Variablen in einer Stichprobe nicht konstant sein können. Außerdem sollte es keine exakten linearen Beziehungen zwischen erklärenden Variablen geben (keine exakte Multikollinearität). Gauss-Markov erlaubt uns keine exakte Multikollinearität, aber nähert sich der Multikollinearität.
RegressionsanalyseAnwendungen
Es gibt sehr spezielle, meist unrealistische Fälle, in denen die Regressionsvariablen völlig unabhängig voneinander sind. In diesen Fällen spricht man von Exogenität der erklärenden Variablen. Die Sozialwissenschaften sind allgemein dafür bekannt, dass sie ungefähre Multikollinearität in ihre Regressionen einbeziehen.
Exakte Multikollinearität
Exakte Multikollinearität tritt auf, wenn mehr als zwei unabhängige Variablen eine Linearkombination anderer unabhängiger Variablen in der Regression sind.
Probleme
Wenn Gauss Markov die exakte Multikollinearität verbietet, liegt das daran, dass wir den Schätzer der Ordinary Least Squares (OLS) nicht erhalten können.
Mathematisch das geschätzte Beta sub-i in Matrixform ausdrücken:
Wenn also exakte Multikollinearität vorliegt, führt dies dazu, dass die Matrix (X'X) eine Determinante 0 hat und daher nicht invertierbar ist. Nicht invertierbar zu sein bedeutet, nicht in der Lage zu sein, (X'X) zu berechnen-1 und folglich weder geschätzte Beta sub-i.
Ungefähre Multikollinearität
Annähernde Multikollinearität tritt auf, wenn mehr als zwei unabhängige Variablen nicht genau (Annäherung) eine Linearkombination anderer unabhängiger Variablen in der Regression sind.
Die Variable k repräsentiert eine Zufallsvariable (unabhängig und identisch verteilt (i.i.d)). Die Häufigkeit Ihrer Beobachtungen kann zufriedenstellend an eine Standardnormalverteilung mit Mittelwert 0 und Varianz 1 angenähert werden. Da es sich um eine Zufallsvariable handelt, bedeutet dies, dass in jeder Beobachtung i der Wert von k unterschiedlich und unabhängig von jedem vorherigen Wert ist.
Probleme
Mathematisch in Matrixform ausdrücken:
Wenn also eine ungefähre Multikollinearität vorliegt, führt dies dazu, dass die Matrix (X'X) ungefähr 0 ist und das Bestimmtheitsmaß sehr nahe an 1 liegt.
Lösung
Multikollinearität kann reduziert werden, indem die Regressoren der Variablen mit einer hohen linearen Beziehung zwischen ihnen eliminiert werden.
Linearer Korrelationskoeffizient