Définition
Définition :
Soit P une population étudiée selon un caractère C; soit n la taille d'un échantillon. Et on cherche à connaître la valeur d'une caractéristique θ de la population (m ou
par exemple), à partir d'une valeur α calculée en fonction de x1, x2, . . . , xn valeurs observées dans l'échantillon.
Soit X une variable aléatoire dont la loi de probabilité dépend d'un paramètre θ. Un Estimateur de θ est une Statistique Y=T( X1, X2, ., Xn).
Exemple :
Estimateur de la moyenne :
est un estimateur de la moyenne m; et
est une estimation de m.Propriétés de l'estimateur


Estimateurs de la variance :
sont des estimateurs de
2. S2 est appelé variance d'échantillon ( ou empirique) et S'2 la quasi variance d'échantillon. Et S et S' sont des estimateurs de l'écart - type
(1)Propriétés de S2 et S ' 2 -

Estimateur d'une proportion .
où les xi sont indépendantes et suivent une loi de Bernouilli B(1, ρ) est un estimateur de p.Propriétés de F : E(F) = p et V(F) =

Qualités d'un estimateur
Estimateur sans biais (ou centré)
Y est sans biais si E(Y) =θ. Ainsi
est un estimateur sans biais de m.
et S'2 sont des estimateurs centrés : E (
)= m; E(S'2) =V(X) =
2
Estimateur convergent
Si Y est centré et V(Y) tend vers zéro, on dit que Y est un estimateur convergent :
est S '2 un estimateur convergent : ![]()





