mvst

1.3.1 Multikollinearitás

Fontos észrevennünk, hogy ha egy újabb változót vonunk be a regressziós modellbe, akkor legtöbbször megváltoznak a korábbi változók együtthatói. Amikor bevonunk egy új változót, akkor a legkisebb négyezetek elve a korábbi független változók együtthatóit módosítja, hogy magyarázza a régi és az új változók kettős hatását Y-ra. A független változók közötti korreláció meglétét multikollinearitásnak nevezzük. Ha a multikollinearitás fennáll, akkor nem tudjuk teljes mértékben szétválasztani a független változók hatásait. Extrém esetben, ha a független változók teljes mértékben korrelálnak, akkor a regressziós egyenletet sem lehet kiszámítani, hiszen, ha két független változó ( X 1  és X 2 ) teljes mértékben korrelál, akkor   X 1 = X 2 . A regressziós egyenlet pedig

Y= b 0 + b 1 X 1 + b 2 X 2 +ε       (1.10. egyenlet)

mivel   X 1 = X 2

Y= b 0 +( b 1 + b 2 ) X 1 +ε       (1.11. egyenlet)

Vagyis nehezen tudjuk b 1  és b 2 együtthatókat külön-külön becsülni.

   
 
Münnich Á., Nagy Á., Abari K. (2006). Többváltozós statisztika pszichológus hallgatók számára. v1.1.