M-estimateur
Cet article est une ébauche concernant les mathématiques et les probabilités et la statistique.
Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.
En statistique, les M-estimateurs constituent une large classe de statistiques obtenues par la minimisation d'une fonction dépendant des données et des paramètres du modèle. Le processus du calcul d'un M-estimateur est appelé M-estimation. De nombreuses méthodes d'estimation statistiques peuvent être considérées comme des M-estimateurs. Dépendant de la fonction à minimiser lors de la M-estimation, les M-estimateurs peuvent permettre d'obtenir des estimateurs plus robustes que les méthodes plus classiques, comme la méthode des moindres carrés.
Définition
Les M-estimateurs ont été introduits en 1964 par Peter Huber sous la forme d'une généralisation de l'estimation par maximum de vraisemblance à la minimisation d'une fonction ρ sur l'ensemble des données. Ainsi, le (ou les) M-estimateur associé aux données et à la fonction ρ est estimé par
Le M de M-estimateur provient donc du maximum de vraisemblance (maximum likelihood-type en anglais) et les estimateurs par maximum de vraisemblance sont un cas particulier des M-estimateurs.
Types
La résolution du problème de minimisation passe couramment par une différentiation de la fonction cible. En effet, pour chercher , une méthode simple consiste à chercher les valeurs telles que
Dans le cas où cette différentiation est possible, le M-estimateur est dit de type ψ ; sinon, il est dit de type ρ.
Exemples de M-estimateurs
Parmi les exemples connus de M-estimateurs, on peut citer :
- , ce qui revient à appliquer la méthode des moindres carrés
- (fonction de Huber (en))
- (fonction de Lorentz)
- (bipoids de Tukey)
Articles connexes
Références
- Peter J. Huber, Robust Statistics, Wiley, 1981, 2004
- Portail des probabilités et de la statistique