Justeret R i kvadrat (Justeret bestemmelseskoefficient)

Indholdsfortegnelse:

Justeret R i kvadrat (Justeret bestemmelseskoefficient)
Justeret R i kvadrat (Justeret bestemmelseskoefficient)
Anonim

Den justerede R-kvadrat (eller justeret bestemmelseskoefficient) bruges i multipel regression for at se graden af ​​intensitet eller effektivitet af de uafhængige variabler til forklaring af den afhængige variabel.

I enklere ord fortæller den justerede R-firkant os, hvilken procentdel af variationen af ​​den afhængige variabel, der samlet forklares af alle de uafhængige variabler.

Brugen af ​​denne koefficient er berettiget, idet den ujusterede bestemmelseskoefficient, når vi føjer variabler til en regression, har tendens til at stige. Selv når det marginale bidrag for hver af de nye tilføjede variabler ikke har nogen statistisk relevans.

Derfor, ved at tilføje variabler til modellen, kunne bestemmelseskoefficienten øges, og vi kunne fejlagtigt tænke, at det valgte sæt variabler er i stand til at forklare en større del af variationen i den uafhængige variabel. Dette problem er almindeligt kendt som ”modeloverskøn”.

VariationskoefficientRegressions analyse

Justeret formel for bestemmelseskoefficient

For at løse problemet beskrevet ovenfor foreslår mange forskere at justere bestemmelseskoefficienten ved hjælp af følgende formel:

R2 til → Justeret R i kvadrat eller justeret bestemmelseskoefficient

R2 → R kvadrat eller bestemmelseskoefficient

n → Antal observationer i prøven

k → Antal uafhængige variabler

I betragtning af at 1-R2 er et konstant antal, og da n er større end k, når vi tilføjer variabler til modellen, bliver kvotienten i parentes større. Følgelig. også resultatet af at multiplicere dette med 1-R2 . Med hvilken vi ser, at formlen er bygget til at justere og straffe inddragelsen af ​​koefficienter i modellen.

Ud over den tidligere fordel giver justeringen, der blev brugt i den foregående formel, os også mulighed for at sammenligne modeller med forskellige antal uafhængige variabler. Igen justerer formlen antallet af variabler mellem en model og en anden og giver os mulighed for at lave en homogen sammenligning.

Når vi vender tilbage til den foregående formel, kan vi udlede, at den justerede bestemmelseskoefficient altid vil være lig med eller mindre end koefficienten R2. I modsætning til bestemmelseskoefficienten, der varierer mellem 0 og 1, kan den justerede bestemmelseskoefficient være negativ af to grunde:

  • Jo tættere k nærmer sig n.
  • Jo lavere bestemmelseskoefficient.
Lineær korrelationskoefficient