Gjensidig informasjon

I sannsynlighetsteori og informasjonsteori er den gjensidige informasjonen til to tilfeldige variabler en størrelse som måler den statistiske avhengigheten av disse variablene. Det måles ofte i biter .

Den gjensidige informasjonen til et par variabler representerer deres grad av avhengighet i sannsynlig forstand. Dette begrepet logisk avhengighet bør ikke forveksles med begrepet fysisk årsakssammenheng, selv om det i praksis ofte innebærer det andre.

Uformelt sier vi at to variabler er uavhengige hvis realiseringen av den ene ikke gir noen informasjon om realiseringen av den andre. Den korrelasjon koeffisient er et mål for det spesielle tilfellet med avhengighet, hvor forholdet mellom de to variablene er strengt lineær .

Den gjensidige informasjonen er null hvis og bare hvis variablene er uavhengige, og øker når avhengigheten øker.

Definisjon

La oss være et par tilfeldige variabler av felles sannsynlighetstetthet gitt av (vi gjør, i denne artikkelen, misbruk av notasjon for å representere sannsynligheten for hendelsen ). Legg merke til marginale fordelinger og . Da er den gjensidige informasjonen i det diskrete tilfellet:

og i kontinuerlig tilfelle:

hvor , og er henholdsvis tettheter av lovene til , og .


Gaussisk sak

Den gjensidige informasjonen i tilfelle en gaussisk fordeling er skrevet i følgende form:

med determinant av kovariansmatrisen av X og Y , determinant av kovariansmatrisen X og determinant av kovariansmatrisen Y .

Eiendommer

Flere generaliseringer av denne mengden til et større antall variabler er blitt foreslått, men det er ennå ikke enighet.

Koblinger med informasjonsteori

Entropi

Gjensidig informasjon måler mengden av informasjon som gis i gjennomsnitt med en realisering av X på sannsynligheten for å oppnå Y . Ved å vurdere at en sannsynlighetsfordeling representerer vår kunnskap om et tilfeldig fenomen, måler vi fraværet av informasjon av entropien til denne fordelingen. I disse vilkårene uttrykkes gjensidig informasjon av:

hvor H ( x ) og H ( Y ) er entropi , H ( X | Y ) og H ( Y | X ) er betinget entropies , og H ( Y , X ) er den felles entropi mellom X og Y .

Det ses således at iff det antall bits som trengs for å kode for en utførelsesform av dreiemomentet er lik summen av antall biter for å kode for en utførelsesform av X og antallet bits til å kode en utførelsesform av Y .

Kullback-Leibler divergens

Gjensidig informasjon kan også uttrykkes av Kullback-Leibler-avviket . Vi har

Måler dermed en slags "avstand" mellom distribusjonene og . Ettersom, per definisjon, to variabler er uavhengige iff disse to fordelingene er like, og som iff , finner vi ekvivalensen mellom og uavhengighet.

Intuitivt bærer mer informasjon når variabler er avhengige enn når de ikke er. Hvis de to variablene er diskrete i N- tilfeller, trenger vi i verste fall koeffisienter å spesifisere , mot bare hvis .

Avviket gir antall informasjonsbiter som kommer av kunnskapen om når man allerede vet og .

Merknader og referanser

  1. (in) S. Kullback, Informasjonsteori og statistikk , John Wiley and Sons, NY, 1959
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">