Leçon 5 : Estimation Statistique

Définition

Définition

Soit P une population étudiée selon un caractère C; soit n la taille d'un échantillon. Et on cherche à connaître la valeur d'une caractéristique θ de la population (m ou par exemple), à partir d'une valeur α calculée en fonction de x1, x2, . . . , xn valeurs observées dans l'échantillon.

Soit X une variable aléatoire dont la loi de probabilité dépend d'un paramètre θ. Un Estimateur de θ est une Statistique Y=T( X1, X2, ., Xn).

Exemple

  • Estimateur de la moyenne : est un estimateur de la moyenne m; et

    est une estimation de m.

    Propriétés de l'estimateur

  • Estimateurs de la variance : sont des estimateurs de 2. S2 est appelé variance d'échantillon ( ou empirique) et S'2 la quasi variance d'échantillon. Et S et S' sont des estimateurs de l'écart - type (1)

    Propriétés de S2 et S ' 2 -

  • Estimateur d'une proportion . où les xi sont indépendantes et suivent une loi de Bernouilli B(1, ρ) est un estimateur de p.

    Propriétés de F : E(F) = p et V(F) =

Qualités d'un estimateur

Estimateur sans biais (ou centré)

Y est sans biais si E(Y) =θ. Ainsiest un estimateur sans biais de m.

et S'2 sont des estimateurs centrés : E ()= m; E(S'2) =V(X) = 2

Estimateur convergent

Si Y est centré et V(Y) tend vers zéro, on dit que Y est un estimateur convergent :

est S '2 un estimateur convergent :

PrécédentPrécédentSuivantSuivant
AccueilAccueilImprimerImprimerRéalisé avec Scenari (nouvelle fenêtre)