Wielowspółliniowość to silna liniowa zależność zależności między więcej niż dwiema zmiennymi objaśniającymi w regresji wielokrotnej, która narusza założenie Gaussa-Markowa, gdy jest dokładne.
Innymi słowy, współliniowość to wysoka korelacja między więcej niż dwiema zmiennymi objaśniającymi.
Podkreślamy, że liniowa zależność (korelacja) między zmiennymi objaśniającymi musi być silna. Bardzo często zmienne objaśniające regresję są skorelowane. Należy więc podkreślić, że związek ten musi być silny, ale nigdy doskonały, aby można go było uznać za przypadek współliniowości. Zależność liniowa byłaby idealna, gdyby współczynnik korelacji wynosił 1.
Kiedy ta silna liniowa (ale nie idealna) zależność występuje tylko między dwiema zmiennymi objaśniającymi, mówimy, że jest to przypadek kolinearności. Byłaby to współliniowość, gdy silna zależność liniowa występuje między więcej niż dwiema zmiennymi niezależnymi.
Założenie Gaussa-Markowa o dokładnej niewspółliniowości określa, że zmienne objaśniające w próbce nie mogą być stałe. Ponadto nie powinno być dokładnych zależności liniowych między zmiennymi objaśniającymi (brak dokładnej współliniowości). Gauss-Markov nie pozwala nam na dokładną wielowspółliniowość, ale przybliża wielowspółliniowość.
Analiza regresjiAplikacje
Zdarzają się bardzo szczególne przypadki, zwykle nierealistyczne, w których zmienne regresji nie są ze sobą całkowicie powiązane. W tych przypadkach mówimy o egzogeniczności zmiennych objaśniających. Nauki społeczne słyną na ogół z włączania do swoich regresji przybliżonej wielowspółliniowości.
Dokładna współliniowość
Dokładna wielowspółliniowość występuje, gdy więcej niż dwie zmienne niezależne są liniową kombinacją innych zmiennych niezależnych w regresji.
Problemy
Kiedy Gauss Markov zakazuje dokładnej wielowspółliniowości, dzieje się tak dlatego, że nie możemy uzyskać estymatora zwykłych najmniejszych kwadratów (OLS).
Matematycznie wyrażając szacowany beta sub-i w postaci macierzy:
Jeśli więc istnieje dokładna wielowspółliniowość, powoduje to, że macierz (X'X) ma wyznacznik 0, a zatem nie jest odwracalna. Brak odwracalności oznacza brak możliwości obliczenia (X'X)-1 iw związku z tym ani szacowana wersja beta pod-i.
Przybliżona współliniowość
Przybliżona wielowspółliniowość występuje, gdy więcej niż dwie zmienne niezależne nie są dokładnie (przybliżeniem) liniową kombinacją innych zmiennych niezależnych w regresji.
Zmienna k reprezentuje zmienną losową (niezależną i o identycznym rozkładzie (i.i.d)). Częstotliwość twoich obserwacji może być zadowalająco przybliżona do standardowego rozkładu normalnego ze średnią 0 i wariancją 1. Ponieważ jest to zmienna losowa, oznacza to, że w każdej obserwacji i wartość k będzie inna i niezależna od jakiejkolwiek poprzedniej wartości.
Problemy
Wyrażając matematycznie w postaci macierzowej:
Jeśli więc istnieje przybliżona wielowspółliniowość, powoduje to, że macierz (X'X) ma wartość w przybliżeniu 0, a współczynnik determinacji bardzo bliski 1.
Rozwiązanie
Wielokoliniowość można zmniejszyć, eliminując regresory zmiennych o dużej liniowej zależności między nimi.
Współczynnik korelacji liniowej