Estimators egenskaber

Indholdsfortegnelse:

Anonim

Estimatorernes egenskaber er de kvaliteter, som disse kan have, og som tjener til at vælge dem, der er mere i stand til at give gode resultater.

For at starte med at definere begrebet estimator, vil vi sige, at givet en tilfældig prøve (x1, x2, x3,…, Xn) en estimator repræsenterer en population, der afhænger af φ en parameter, som vi ikke kender.

Denne parameter, som vi betegner med det græske bogstav fi (φ), kan for eksempel være gennemsnittet af enhver tilfældig variabel.

Matematisk afhænger en -parameter Q-estimator af tilfældige observationer i prøven (x1, x2, x3,…, Xn) og en kendt funktion (h) af prøven. Estimatoren (Q) vil være en tilfældig variabel, fordi den afhænger af prøven, der indeholder tilfældige variabler.

Q = h (x1, x2, x3,…, Xn)

Skævhedens partiskhed

En Q-estimator af φ er en upartisk estimator, hvis E (Q) = φ for alle mulige værdier af φ. Vi definerer E (Q) som den forventede værdi eller forventning af estimatoren Q.

I tilfælde af partiske estimatorer vil denne bias blive repræsenteret som:

Bias (Q) = E (Q) - φ

Vi kan se, at bias er forskellen mellem estimatens forventede værdi, E (Q) og den sande værdi af populationsparameteren, φ.

Punktestimat

Effektivitet af en estimator

Ja Q1 og Q2 er to upartiske estimatorer af φ, vil deres forhold til Q være effektivt2 når Var (Q1) ≤ Var (Q2) for enhver værdi på φ så længe den statistiske prøve på φ er strengt større end 1, n> 1. Hvor Var er variansen, og n er stikprøvestørrelsen.

Intuitivt angivet, forudsat at vi har to estimatorer med den upartiske egenskab, kan vi sige den ene (Q1) er mere effektiv end en anden (Q2) hvis variabiliteten af ​​resultaterne af en (Q1) er mindre end den andres (Q2). Det er logisk at tænke, at en ting, der varierer mere end en anden, er mindre "præcis".

Derfor kan vi kun bruge dette kriterium til at vælge estimatorer, når de er upartiske. I den foregående erklæring, når vi definerer effektiviteten, antager vi allerede, at estimatorerne skal være upartiske.

For at sammenligne estimatorer, der ikke nødvendigvis er upartiske, dvs. bias kan eksistere, anbefales det at beregne estimatorernes gennemsnitlige kvadratfejl (MSE).

Hvis Q er en estimator for φ, defineres ECM for Q som:

Den gennemsnitlige firkantfejl (MSE) beregner den gennemsnitlige afstand, der findes mellem den forventede værdi af prøveestimatoren Q og populationsestimatoren. Den kvadratiske form af ECM skyldes, at fejlene som standard kan være negative eller overskydende positive i forhold til den forventede værdi. På denne måde beregner ECM altid positive værdier.

ECM afhænger af varians og bias (hvis nogen) giver os mulighed for at sammenligne to estimatorer, når den ene eller begge er forudindtaget. Den, hvis NDE er større, forstås at være mindre præcis (har mere fejl) og derfor mindre effektiv.

Konsistens af en estimator

Konsistens er en asymptotisk egenskab. Denne egenskab ligner effektivitetsegenskaben med den forskel, at konsistens måler den sandsynlige afstand mellem estimatorens værdi og den sande værdi af populationsparameteren, da stikprøvestørrelsen stiger på ubestemt tid. Denne ubestemte stigning i stikprøvestørrelsen er grundlaget for den asymptotiske egenskab.

Der er en mindste stikprøvedimension til at udføre den asymptotiske analyse (kontroller estimatorens konsistens, når prøven stiger). Store prøvetilnærmelser fungerer godt for prøver på ca. 20 observationer (n = 20). Med andre ord vil vi se, hvordan estimatoren opfører sig, når vi øger prøven, men denne stigning har en tendens til uendelig. I betragtning af dette foretager vi en tilnærmelse, og ud fra 20 observationer i en prøve (n ≥ 20) er den asymptotiske analyse passende.

Matematisk definerer vi Q1n som en estimator for φ fra enhver tilfældig prøve (x1, x2, x3,…, Xn) af størrelse (n). Så vi kan sige, at Qn er en konsekvent estimator af φ hvis:

Dette fortæller os, at forskellene mellem estimatoren og dens befolkningsværdi | Qn - φ |, de skal være større end nul. For dette udtrykker vi det i absolut værdi. Sandsynligheden for denne forskel har en tendens til 0 (bliver mindre og mindre), når stikprøvestørrelsen (n) har tendens til uendelig (bliver større og større).

Med andre ord er det mindre og mindre sandsynligt, at Qn bevæger sig for langt væk fra φ når prøvestørrelsen øges.