Information De Fisher: Notion de statistique

Cet article est une ébauche concernant les probabilités et la statistique.

Information de Fisher
Inventeur
Nommé en référence à
Formule
Voir et modifier les données sur Wikidata

En statistique, l'information de Fisher quantifie l'information relative à un paramètre contenu dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. Elle a été introduite par R.A. Fisher.

Définition

Soit f(x ; θ) la distribution de vraisemblance d'une variable aléatoire X (qui peut être multidimensionnelle), paramétrée par θ. Le score est défini comme la dérivée partielle de la log-vraisemblance par rapport au paramètre θ :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

L'information de Fisher est alors définie comme le moment d'ordre deux de la fonction de score :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .

Il est possible de montrer que la fonction de score a une espérance nulle. L'information de Fisher correspond par conséquent également à la variance de la fonction de score.

Formulation discrète

Les différentes observations Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  nous permettent d'échantillonner la fonction de densité de probabilité f(x ; θ). Le maximum de vraisemblance consiste à maximiser la probabilité Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique . Si les observations sont décorrélées, la valeur la plus probable Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  nous est donnée par le maximum de

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

qui est aussi le maximum de

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Le passage en logarithme permet de transformer le produit en somme, ce qui nous autorise à trouver le maximum par dérivation :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Cette somme correspond pour un nombre d'observations suffisamment élevé à l'espérance mathématique. La résolution de cette équation permet de trouver un estimateur de θ à partir du jeu de paramètre au sens du maximum de vraisemblance. Maintenant, la question est de quantifier la précision de notre estimation. On cherche donc à estimer la forme de la distribution de probabilité de θ autour de la valeur donnée par l'estimateur Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique . À partir d'un développement limité à l'ordre 2, comme le terme linéaire est nul au maximum, on obtient :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  est l'information de Fisher relative à θ au point de maximum de vraisemblance. Ceci signifie que θ suit en première approximation une loi gaussienne d'espérance Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  et de variance Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Cette variance est appelée la borne de Cramér-Rao et constitue la meilleure précision d'estimation atteignable en absence d'a priori.

Additivité

Une des propriétés fondamentales de l'information de Fisher est son additivité. L'information résultant de deux variables aléatoires indépendantes est la somme des informations :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Si on a N réalisations indépendantes obéissant une même densité de probabilité, l'information résultante est une simple mise à l'échelle de l'information individuelle.

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Lorsqu'une statistique S(X) sur une variable aléatoire X est exhaustive, l'information relative à la statistique est inférieure ou égale à celle de la variable aléatoire. Autrement dit

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

avec égalité pour une statistique exhaustive.

Formulation multi-paramétrique

Dans le cas où la distribution de probabilité f(X) dépend de plusieurs paramètres, θ n'est plus un scalaire mais un vecteur Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .La recherche du maximum de vraisemblance ne se résume donc non pas à une seule équation mais à un système :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

on dérive vis-à-vis des différentes composantes de Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique . Enfin, l'information de Fisher n'est plus définie comme une variance scalaire mais comme une matrice de covariance :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Estimation et borne de Cramér-Rao

L'inverse de cette matrice permet quant à elle de déterminer les bornes de Cramér-Rao, i.e. les covariances relatives aux estimations conjointes des différents paramètres à partir des observations : en effet, le fait que tous les paramètres soient à estimer simultanément rend l'estimation plus difficile. Ce phénomène est une manifestation de ce qui est parfois appelé le « fléau de la dimension ». C'est pour cette raison que l'on utilise quand on le peut des a priori sur les paramètres (méthode d'estimation du maximum a posteriori). Ainsi, on restreint l'incertitude sur chacun des paramètres, ce qui limite l'impact sur l'estimation conjointe.

Métrique de Fisher

Cette matrice est couramment appelée la métrique d'information de Fisher ;

    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

En effet, le passage de l'espace des observations à l'espace des paramètres est un changement de système de coordonnées curviligne. Dans la base des paramètres, avec comme produit scalaire la covariance, cette matrice est la métrique. Ce point de vue géométrique, introduit par C. Rao , a été ensuite largement développé par S. Amari sous la dénomination de géométrie de l'information. La métrique n'est en général pas invariante, et l'espace des paramètres est riemannien. L'inégalité de Cramér-Rao s'interprète avec comme l'expression de l'inégalité de Schwarz entre le vecteur de dérivée de la distribution selon un paramètre et son dual. L'information de Fisher joue un rôle particulier en tant que métrique de par ses propriétés d'additivité et d'invariance par rapport à l'échantillonnage statistique (théorème de Chentsov ou Čencov ). C'est une métrique qui est donc naturelle lorsque sont considérées des distributions de probabilité. De plus, l'approche du concept d'information sous l'angle de la géométrie différentielle permet de proposer un cadre cohérent liant différents concepts :

Formulations alternatives

Il existe un très grand nombre de formulations alternatives de l'information de Fisher révélant certaines propriétés intéressantes.

  • Écriture sous la forme d'une courbure.
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 
  • Écriture symétrique sous la forme d'amplitudes de probabilité (introduites par Fisher en 1943, sous forme de distributions réelles indépendamment du développement de la mécanique quantique où l'on utilise les distributions complexes ). Cette formulation est à rapprocher de la définition de la distance de Hellinger.
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .
  • Écriture générale pour l'ensemble des α-représentations de Amari :
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .

Information apportée par une statistique

De la même façon que l'on a défini l'information de Fisher pour le vecteur des observations X, on peut définir l'information de Fisher contenue dans une statistique S(X) :

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Cette définition est exactement la même que celle de l'information de Fisher pour X pour un modèle multiparamétrique, on remplace juste la densité de X par celle de S(X) la statistique S. Deux théorèmes illustrent l'intérêt de cette notion :

  • Pour une statistique exhaustive on a Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  ce qui permet de voir une statistique exhaustive comme une statistique comprenant toute l'information du modèle. L'on a aussi la réciproque à savoir que si Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  alors S est exhaustif bien que cette caractérisation soit rarement utilisée dans ce sens, la définition grâce au critère de factorisation des statistiques exhaustives étant souvent plus maniable.
  • Quelle que soit la statistique S, Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  avec un cas d'égalité uniquement pour des statistiques exhaustives. On ne peut donc récupérer plus d'information que celle contenue dans une statistique exhaustive. Ceci explique en grande partie l'intérêt des statistiques exhaustives pour l'estimation. La relation d'ordre est ici la relation d'ordre partielle sur les matrices symétriques à savoir qu'une matrice Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  si B-A est une matrice symétrique positive.

Liens avec d'autres notions

L'information de Fisher a été reliée à d’autres notions :

  • L'information de Shannon et l'entropie de Boltzmann. L'information de Fisher résulte d'une différentiation locale de l'information de Shannon dans l'espace des distributions de probabilité.
  • L'énergie physique. Les équations de base de la physique peuvent être vues comme l'expression de l'information de Fisher relative au problème posé , tout dépendant du jeu de variables physiques indépendantes et des règles d'invariances considérées. Différents lagrangiens courants peuvent ainsi être déduits de l'information de Fisher.

La conservation de l'énergie est vue comme découlant de la conservation de l'information. Par exemple, on considère une fonction d'onde complexe Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique  (telle que la densité de probabilité de présence de la particule soit Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique ) dans les coordonnées de Minkowski (ix, iy, iz, ct). Si l'on considère ces coordonnées comme canoniques i.e. suffisantes, équivalentes et indépendantes, l'information de Fisher intrinsèque associée est

    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 

Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .

En passant dans l'espace réciproque, il vient :

    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique 
    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .

Autrement dit, d'après les relations de Planck

    Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique .

La conservation de cette information correspond conceptuellement à l'invariance de la masse de la particule, selon la relation classique de la relativité restreinte Information De Fisher: Définition, Formulation discrète, Formulation multi-paramétrique , ce qui a pour équivalent en physique quantique l'équation de Klein-Gordon .

Notes et références

Voir aussi

Articles connexes

Liens externes

Tags:

Information De Fisher DéfinitionInformation De Fisher Formulation discrèteInformation De Fisher Formulation multi-paramétriqueInformation De Fisher Information apportée par une statistiqueInformation De Fisher Liens avec dautres notionsInformation De Fisher Notes et référencesInformation De Fisher Voir aussiInformation De FisherAide:ÉbaucheStatistiqueThéorie des probabilités

🔥 Trending searches on Wiki Français:

Renaissance (parti)Omar SyDune, deuxième partieTom Holland (acteur)The Fall Guy (film, 2024)Révolution des ŒilletsMerveille (chanteuse)Kurt CobainSagrada FamíliaListe des listes aux élections européennes de 2024 en FranceCéline DionFlammes (récompense)Billy CrawfordMcDonald'sTom Baker (football)Mário SoaresGuerre du Viêt NamGimsLyonMademoiselle HolmesChelsea Football ClubIndicatif téléphonique local en FranceArtus (humoriste)ColiséeSuisse romandeLionValérie HayerLa RéunionCillian MurphyAssociation sportive de Monaco Football ClubAliExpressLigue des champions de l'UEFA 2023-2024Go (jeu)Robinson CrusoéBerbèresDiane KrugerRipley (série télévisée)Michel-AngeJean-Marie Le PenListe des vidéos les plus visionnées sur YouTubeFree (entreprise)MonacoListe des capitales du mondeXXXTentacionFallout (série télévisée)Jul (rappeur)8 mai 1945NantesSadri FegaierBronx (film)Canal de SuezShoahMartin ScorseseAntoine GriezmannRachel KhanEnnéagrammeGeoffroy de Lagasnerie.45 ACPDorian GodonRihannaJules CésarJason StathamJanuary JonesWikipédiaBrian Jones (musicien)La Fièvre (série télévisée)Zlatan IbrahimovićTuerie de l'École polytechnique de MontréalAlain PolicarSimon Porte JacquemusRessources humaines (film)Polynésie françaiseÉtienne ChicotCôte d'IvoireDune (roman)OnlyFansNeymarTony Parker🡆 More