Markov ulikhet
I sannsynlighetsteori , Markov ulikhet gir en økning i sannsynligheten for at en virkelig tilfeldig variabel med positive verdier er større enn eller lik en positiv konstant. Denne ulikheten ble oppkalt til ære for Andrei Markov .
Stater
Markov-ulikhet - La Z være en reell tilfeldig variabel definert på et sannsynlighetsrom og antatt nesten sikkert å være positiv eller null. Så
(Ω,PÅ,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}
∀på>0,P(Z⩾på)⩽E(Z)på.{\ displaystyle \ forall a> 0, \ qquad \ mathbb {P} (Z \ geqslant a) \ leqslant {\ frac {\ mathbb {E} (Z)} {a}}.}
Demonstrasjon
Enten . Vi noterer oss indikatorfunksjonen til arrangementet .
på∈R+∗{\ displaystyle a \ in \ mathbb {R} _ {+} ^ {*}}1{Z⩾på}{\ displaystyle \ mathbf {1} _ {\ {Z \ geqslant a \}}}{Z⩾på}{\ displaystyle \ {Z \ geqslant a \}}
Vi har ulikheten:
∀ω∈Ω,på1{Z(ω)⩾på}⩽Z(ω)1{Z(ω)⩾på}⩽Z(ω){\ displaystyle \ forall \ omega \ i \ Omega, \ qquad a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ leqslant Z (\ omega) \, \ mathbf {1 } _ {\ {Z (\ omega) \ geqslant a \}} \ leqslant Z (\ omega)}
fordi er positivt eller null.
Z{\ displaystyle Z}
Ved vekst i forventning har vi:
E(på1{Z(ω)⩾på})⩽E(Z)(∗){\ displaystyle \ mathbb {E} \ left (a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) \ leqslant \ mathbb {E} (Z) \ qquad ( *)}
Deretter, etter forventningens linearitet:
E(på1{Z(ω)⩾på})=påE(1{Z(ω)⩾på})=på(1×P(Z⩾på)+0×P(Z<på))=påP(Z⩾på){\ displaystyle \ mathbb {E} \ left (a \, \ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) = a \, \ mathbb {E} \ left (\ mathbf {1} _ {\ {Z (\ omega) \ geqslant a \}} \ right) = a \, \ left (1 \ times \ mathbb {P} (Z \ geqslant a) +0 \ times \ mathbb { P} (Z <a) \ right) = a \, \ mathbb {P} \ left (Z \ geqslant a \ right)}
Ved å injisere uttrykket i ulikheten får vi:
(∗){\ displaystyle (*)}
påP(Z⩾på)⩽E(Z){\ displaystyle a \, \ mathbb {P} \ left (Z \ geqslant a \ right) \ leqslant \ mathbb {E} (Z)}
det er å si
P(Z⩾på)⩽E(Z)på{\ displaystyle \ mathbb {P} \ left (Z \ geqslant a \ right) \ leqslant {\ frac {\ mathbb {E} (Z)} {a}}}
Generalisering
Det er en mer generell versjon av denne teoremet. La X være en stokastisk variabel der Ω er det sett av erkjennelser, er stammen av hendelser og mål på sannsynlighet. Deretter kan Markov-ulikheten uttales som følger:Ls(Ω,F,P){\ textstyle L ^ {p} (\ Omega, {\ mathcal {F}}, \ mathbb {P})}F{\ textstyle {\ mathcal {F}}}P{\ textstyle \ mathbb {P}}
Markov ulikhet - For enhver strengt positiv reell ,
α{\ displaystyle \ alpha}
P(|X|≥α)≤1αsE(|X|s){\ displaystyle \ mathbb {P} \ left (| X | \ geq \ alpha \ right) \ leq {\ frac {1} {\ alpha ^ {p}}} \ mathbb {E} \ left (| X | ^ {p} \ høyre)}
Demonstrasjonen tar helt til det faktum at for alle α strengt positive . Her, 1 A betegner en indikator på arrangementet A . Ved å øke forventningen får vi:αs1{|X|≥α}≤|X|s{\ textstyle \ alpha ^ {p} \ mathbf {1} _ {\ left \ {| X | \ geq \ alpha \ right \}} \ leq | X | ^ {p}}
E(|X|s)≥E(αs1{|X|≥α})=αsE(1{|X|≥α})=αsP{|X|≥α}{\ displaystyle \ mathbb {E} \ left (| X | ^ {p} \ right) \ geq \ mathbb {E} \ left (\ alpha ^ {p} \, \ mathbf {1} _ {\ left \ { | X | \ geq \ alpha \ right \}} \ right) = \ alpha ^ {p} \, \ mathbb {E} \ left (\ mathbf {1} _ {\ left \ {| X | \ geq \ alpha \ right \}} \ right) = \ alpha ^ {p} \, \ mathbb {P} \ left \ {| X | \ geq \ alpha \ right \}}
Ved å dele på hver side av ulikheten med
α p finner vi ønsket resultat.
Vi ser straks at resultatet sitert ovenfor ikke er annet enn et spesielt tilfelle av denne ulikheten.
Videre, ved å ta og p = 2, får vi nøyaktig utsagnet om Bienaymé-Chebyshev ulikhet .
X=Y-E(Y){\ textstyle X = Y- \ mathbb {E} \ left (Y \ right)}
Resultat
Den har en ofte brukt følge:
Konsekvens - Let fy en ikkenegativ økende funksjon på et intervall jeg . La Y være en virkelig tilfeldig variabel definert på et sannsynlighetsrom slik at . Så:
(Ω,PÅ,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}P(Y∈Jeg)=1{\ displaystyle \ mathbb {P} (Y \ i I) = 1}
∀b∈Jeg|ϕ(b)>0,P(Y⩾b)⩽E(ϕ(Y))ϕ(b).{\ displaystyle \ forall b \ i I \; | \; \ phi (b)> 0, \ qquad \ mathbb {P} (Y \ geqslant b) \ leqslant {\ frac {\ mathbb {E} (\ phi ( Y))} {\ phi (b)}}.}
Demonstrasjon
Vi bruker Markov-ulikheten til og for å oppnå:
Z=ϕ(Y) {\ displaystyle Z = \ phi (Y) \}på=ϕ(b){\ displaystyle a = \ phi (b)}
∀b>0,P(ϕ(Y)⩾ϕ(b))⩽E(ϕ(Y))ϕ(b){\ displaystyle \ forall b> 0, \ qquad \ mathbb {P} \ left (\ phi (Y) \ geqslant \ phi (b) \ right) \ leqslant {\ frac {\ mathbb {E} (\ phi (Y ))} {\ phi (b)}}}.
Vekst fører til: .
ϕ{\ displaystyle \ phi}{Y⩾b}⊂{ϕ(Y)⩾ϕ(b)} {\ displaystyle \ {Y \ geqslant b \} \ delmengde \ {\ phi (Y) \ geqslant \ phi (b) \} \}
Derfor: .
P(Y⩾b)⩽E(ϕ(Y))ϕ(b){\ displaystyle \ mathbb {P} (Y \ geqslant b) \ leqslant {\ frac {\ mathbb {E} (\ phi (Y))} {\ phi (b)}}}
applikasjoner
- Valget, i ovennevnte ulikhet, mellom og ϕ ( x ) = x 2 gir Bienaymé-Chebyshev ulikhet .Y=|X-E(X)|, Jeg=[0,+∞[ {\ displaystyle Y = | X- \ mathbb {E} (X) |, ~ I = [0, + \ infty [\}
- Valget, i ovennevnte ulikhet, mellom , eller , og av ϕ ( x ) = e λ x , λ> 0 , er det første trinnet i beviset på Chernoff-ulikheten eller Hoeffding-ulikheten .Y=X-E(X){\ displaystyle Y = X- \ mathbb {E} (X)}Y=E(X)-X{\ displaystyle Y = \ mathbb {E} (X) -X}Jeg=R{\ displaystyle I = \ mathbb {R}}
Eksempel
Siden lønnene er positive, er andelen av befolkningen som mottar en lønn som er større enn 5 ganger gjennomsnittslønnen, maksimalt en femtedel.
Se også
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">