Właściwości estymatorów to cechy, które mogą mieć i które służą do wybierania tych, które są bardziej zdolne do uzyskania dobrych wyników.
Na początek od zdefiniowania pojęcia estymatora powiemy, że dana próba losowa (x1, x2, x3,…, Xnie) estymator reprezentuje populację, która zależy od φ parametru, którego nie znamy.
Ten parametr, który oznaczamy grecką literą fi (φ), może być np. średnią dowolnej zmiennej losowej.
Matematycznie jednoparametrowy estymator Q zależy od losowych obserwacji w próbie (x1, x2, x3,…, Xnie) i znaną funkcję (h) próbki. Estymator (Q) będzie zmienną losową, ponieważ zależy od próby zawierającej zmienne losowe.
Q = h (x1, x2, x3,…, Xnie)
Bezstronność estymatora
Estymator Q φ jest bezstronnym estymatorem, jeśli E (Q) = φ dla wszystkich możliwych wartości φ. Definiujemy E (Q) jako wartość oczekiwaną lub oczekiwanie estymatora Q.
W przypadku stronniczych estymatorów, błąd ten będzie reprezentowany jako:
Odchylenie (Q) = E (Q) - φ
Widzimy, że obciążenie jest różnicą między oczekiwaną wartością estymatora, E (Q), a rzeczywistą wartością parametru populacji, φ.
Punktowe oszacowanieWydajność estymatora
Tak Q1 i Q2 są dwoma bezstronnymi estymatorami φ, ich związek z Q będzie skuteczny2 kiedy Var (Q1) ≤ Var (Q2) dla dowolnej wartości φ, o ile próba statystyczna φ jest ściśle większa niż 1, n> 1. Gdzie Var to wariancja, a n to wielkość próby.
Intuicyjnie stwierdziwszy, zakładając, że mamy dwa estymatory z nieobciążoną własnością, możemy powiedzieć, że jeden (Q1) jest bardziej wydajny niż inny (Q2) jeśli zmienność wyników jednego (Q1) jest mniejsza niż drugiego (Q2). Logiczne jest myślenie, że jedna rzecz, która różni się bardziej niż inna, jest mniej „dokładna”.
Dlatego możemy używać tego kryterium do wyboru estymatorów tylko wtedy, gdy są one bezstronne. W poprzednim stwierdzeniu, kiedy definiujemy efektywność, już zakładamy, że estymatory muszą być bezstronne.
Aby porównać estymatory, które niekoniecznie są bezstronne, to znaczy, że może istnieć błąd systematyczny, zaleca się obliczenie błędu średniokwadratowego (MSE) estymatorów.
Jeżeli Q jest estymatorem φ, to ECM Q definiuje się jako:
Błąd średniokwadratowy (MSE) oblicza średnią odległość, jaka istnieje między oczekiwaną wartością estymatora próbki Q a estymatorem populacji. Kwadratowa forma ECM wynika z faktu, że błędy mogą być domyślnie ujemne lub w nadmiarze dodatnie w stosunku do wartości oczekiwanej. W ten sposób ECM zawsze oblicza wartości dodatnie.
ECM zależy od wariancji i błędu (jeśli występuje), co pozwala nam porównać dwa estymatory, gdy jeden lub oba są stronnicze. Ten, którego NDE jest większe, będzie rozumiany jako mniej precyzyjny (ma więcej błędów), a zatem mniej wydajny.
Spójność estymatora
Spójność jest właściwością asymptotyczną. Własność ta przypomina własność efektywności z tą różnicą, że spójność mierzy prawdopodobną odległość między wartością estymatora a rzeczywistą wartością parametru populacji w miarę wzrostu wielkości próby. Ten nieokreślony wzrost liczebności próby jest podstawą własności asymptotycznej.
Istnieje minimalny wymiar próbki do przeprowadzenia analizy asymptotycznej (sprawdzaj spójność estymatora w miarę zwiększania się próbki). Aproksymacje dużej próby sprawdzają się dobrze dla próbek liczących około 20 obserwacji (n = 20). Innymi słowy, chcemy zobaczyć, jak zachowuje się estymator, gdy zwiększamy próbkę, ale ten wzrost ma tendencję do nieskończoności. Biorąc to pod uwagę, dokonujemy przybliżenia i na podstawie 20 obserwacji w próbie (n ≥ 20), odpowiednia jest analiza asymptotyczna.
Matematycznie definiujemy Q1n jako estymator φ z dowolnej próby losowej (x1, x2, x3,…, Xnie) wielkości (nie). Możemy więc powiedzieć, że Qnie jest spójnym estymatorem φ, jeżeli:
To mówi nam, że różnice między estymatorem a jego wartością populacji, | Qnie - φ |, muszą być większe od zera. W tym celu wyrażamy to w wartości bezwzględnej. Prawdopodobieństwo tej różnicy ma tendencję do 0 (staje się coraz mniejsze), gdy wielkość próbki (nie) dąży do nieskończoności (staje się coraz większy).
Innymi słowy, coraz mniej prawdopodobne jest, że Qnie oddala się zbyt daleko od φ, gdy wielkość próbki wzrasta.