Wielowspółliniowość - co to jest, definicja i pojęcie

Spisie treści:

Anonim

Wielowspółliniowość to silna liniowa zależność zależności między więcej niż dwiema zmiennymi objaśniającymi w regresji wielokrotnej, która narusza założenie Gaussa-Markowa, gdy jest dokładne.

Innymi słowy, współliniowość to wysoka korelacja między więcej niż dwiema zmiennymi objaśniającymi.

Podkreślamy, że liniowa zależność (korelacja) między zmiennymi objaśniającymi musi być silna. Bardzo często zmienne objaśniające regresję są skorelowane. Należy więc podkreślić, że związek ten musi być silny, ale nigdy doskonały, aby można go było uznać za przypadek współliniowości. Zależność liniowa byłaby idealna, gdyby współczynnik korelacji wynosił 1.

Kiedy ta silna liniowa (ale nie idealna) zależność występuje tylko między dwiema zmiennymi objaśniającymi, mówimy, że jest to przypadek kolinearności. Byłaby to współliniowość, gdy silna zależność liniowa występuje między więcej niż dwiema zmiennymi niezależnymi.

Założenie Gaussa-Markowa o dokładnej niewspółliniowości określa, że ​​zmienne objaśniające w próbce nie mogą być stałe. Ponadto nie powinno być dokładnych zależności liniowych między zmiennymi objaśniającymi (brak dokładnej współliniowości). Gauss-Markov nie pozwala nam na dokładną wielowspółliniowość, ale przybliża wielowspółliniowość.

Analiza regresji

Aplikacje

Zdarzają się bardzo szczególne przypadki, zwykle nierealistyczne, w których zmienne regresji nie są ze sobą całkowicie powiązane. W tych przypadkach mówimy o egzogeniczności zmiennych objaśniających. Nauki społeczne słyną na ogół z włączania do swoich regresji przybliżonej wielowspółliniowości.

Dokładna współliniowość

Dokładna wielowspółliniowość występuje, gdy więcej niż dwie zmienne niezależne są liniową kombinacją innych zmiennych niezależnych w regresji.

Problemy

Kiedy Gauss Markov zakazuje dokładnej wielowspółliniowości, dzieje się tak dlatego, że nie możemy uzyskać estymatora zwykłych najmniejszych kwadratów (OLS).

Matematycznie wyrażając szacowany beta sub-i w postaci macierzy:

Jeśli więc istnieje dokładna wielowspółliniowość, powoduje to, że macierz (X'X) ma wyznacznik 0, a zatem nie jest odwracalna. Brak odwracalności oznacza brak możliwości obliczenia (X'X)-1 iw związku z tym ani szacowana wersja beta pod-i.

Przybliżona współliniowość

Przybliżona wielowspółliniowość występuje, gdy więcej niż dwie zmienne niezależne nie są dokładnie (przybliżeniem) liniową kombinacją innych zmiennych niezależnych w regresji.

Zmienna k reprezentuje zmienną losową (niezależną i o identycznym rozkładzie (i.i.d)). Częstotliwość twoich obserwacji może być zadowalająco przybliżona do standardowego rozkładu normalnego ze średnią 0 i wariancją 1. Ponieważ jest to zmienna losowa, oznacza to, że w każdej obserwacji i wartość k będzie inna i niezależna od jakiejkolwiek poprzedniej wartości.

Problemy

Wyrażając matematycznie w postaci macierzowej:

Jeśli więc istnieje przybliżona wielowspółliniowość, powoduje to, że macierz (X'X) ma wartość w przybliżeniu 0, a współczynnik determinacji bardzo bliski 1.

Rozwiązanie

Wielokoliniowość można zmniejszyć, eliminując regresory zmiennych o dużej liniowej zależności między nimi.

Współczynnik korelacji liniowej