Kontinuerlig enhetlig lov
Uniform
|
Sannsynlighetstetthet
|
|
|
Distribusjonsfunksjon
|
|
Innstillinger
|
på,b∈ ]-∞,+∞[{\ displaystyle a, b \ in \] \! - \ infty, + \ infty [\!}
|
---|
Brukerstøtte
|
på≤x≤b{\ displaystyle a \ leq x \ leq b \!}
|
---|
Sannsynlighetstetthet
|
1b-påtil på≤x≤b0sour x<på ou x>b{\ displaystyle {\ begin {matrix} {\ frac {1} {ba}} og {\ mbox {for}} a \ leq x \ leq b \\\\ 0 & \ mathrm {for} \ x <a \ \ mathrm {eller} \ x> b \ end {matrix}} \!}
|
---|
Distribusjonsfunksjon
|
0til x<påx-påb-på til på≤x<b1til x≥b{\ displaystyle {\ begin {matrix} 0 & {\ mbox {for}} x <a \\ {\ frac {xa} {ba}} & ~~~~~ {\ mbox {for}} a \ leq x <b \\ 1 & {\ mbox {for}} x \ geq b \ end {matrix}} \!}
|
---|
Håp
|
på+b2{\ displaystyle {\ frac {a + b} {2}}}
|
---|
Median
|
på+b2{\ displaystyle {\ frac {a + b} {2}}}
|
---|
Mote
|
noen verdi i [på,b]{\ displaystyle [a, b]}
|
---|
Forskjell
|
(b-på)212{\ displaystyle {\ frac {(ba) ^ {2}} {12}}}
|
---|
Asymmetri
|
0{\ displaystyle 0 \!}
|
---|
Normalisert kurtose
|
-65{\ displaystyle - {\ frac {6} {5}} \!}
|
---|
Entropi
|
ln(b-på){\ displaystyle \ ln (ba) \!}
|
---|
Moment-genererende funksjon
|
etb-etpåt(b-på){\ displaystyle {\ frac {{\ rm {e}} ^ {tb} - {\ rm {e}} ^ {ta}} {t (ba)}}}
|
---|
Karakteristisk funksjon
|
eJegtb-eJegtpåJegt(b-på){\ displaystyle {\ frac {{\ rm {e}} ^ {{\ rm {i}} tb} - {\ rm {e}} ^ {{\ rm {i}} ta}} {{\ rm { i}} t (ba)}}}
|
---|
I sannsynlighetsteori og statistikk , kontinuerlige ensartede lover danner en familie av tetthet sannsynlighetslover som er kjennetegnet ved følgende egenskap: alle intervallene med samme lengde inkludert i støtte av loven har samme sannsynlighet. Dette resulterer i at tettheten av sannsynlighetene for disse lovene er konstant på deres støtte.
Den kontinuerlige ensartede loven er en generalisering av rektangelfunksjonen på grunn av formen på dens sannsynlighetstetthetsfunksjon. Det er parameterisert av de minste og største verdiene a og b som den ensartede tilfeldige variabelen kan ta. Denne kontinuerlige loven blir ofte betegnet med U ( a , b ).
Karakterisering
Tetthet
Den sannsynlighetstettheten til den kontinuerlige jevne fordeling er en funksjon av intervallet [ en , b ] :
f(x)={1b-påtil på≤x≤b,0sJegikkeoikke.{\ displaystyle f (x) = {\ begin {cases} {\ frac {1} {ba}} & {\ text {pour}} a \ leq x \ leq b, \\ 0 & \ mathrm {ellers}. \ end {cases}}}
Distribusjonsfunksjon
Den fordelingsfunksjon er gitt ved
F(x)={0til x<påx-påb-påtil på≤x<b1til x≥b{\ displaystyle F (x) = {\ begin {cases} 0 & {\ text {for}} x <a \\ {\ dfrac {xa} {ba}} og {\ text {for}} a \ leq x <b \\ 1 og {\ text {for}} x \ geq b \ end {cases}}}
Genererer funksjoner
Moment-genererende funksjon
Det øyeblikksgenererende funksjonen er
Mx=E[etx]=etb-etpåt(b-på){\ displaystyle M_ {x} = \ mathbb {E} [{\ rm {e}} ^ {tx}] = {\ frac {{{\ rm {e}} ^ {tb} - {\ rm {e} } ^ {ta}} {t (ba)}}}som gjør det mulig å beregne alle ikke-sentrerte øyeblikk , m k :
m1=på+b2,{\ displaystyle m_ {1} = {\ frac {a + b} {2}},}m2=på2+påb+b23,{\ displaystyle m_ {2} = {\ frac {a ^ {2} + ab + b ^ {2}} {3}},}mk=1k+1∑Jeg=0kpåJegbk-Jeg.{\ displaystyle m_ {k} = {\ frac {1} {k + 1}} \ sum _ {i = 0} ^ {k} a ^ {i} b ^ {ki}.}Således, for en tilfeldig variabel følge denne lov er håp er da m 1 = ( en + b ) / 2 og variansen er
m 2 - m 1 2 = ( b - en ) 2 /12 år.
Genererer funksjon av kumulanter
For n ≥ 2 er n - kumulanten av den ensartede loven over intervallet [0, 1] b n / n , der b n er det n - Bernoulli-tallet .
Eiendommer
Bestillingsstatistikk
La X- 1 , ..., X n være et eksempel IID følge loven U (0, 1). La X ( k ) være den k - ordens statistikk for prøven. Deretter er fordelingen av X ( k ) en beta-fordeling av parametrene k og n - k + 1. Forventningen er
E[X(k)]=kikke+1.{\ displaystyle \ mathbb {E} [X _ {(k)}] = {k \ over n + 1}.}Dette faktum er nyttig når du konstruerer en Henry-linje .
Avvikene er
Var(X(k))=k(ikke-k+1)(ikke+1)2(ikke+2).{\ displaystyle \ operatorname {Var} (X _ {(k)}) = {k (n-k + 1) \ over (n + 1) ^ {2} (n + 2)}.}
Det ensartede utseendet
Sannsynligheten for at en ensartet variabel faller i et gitt intervall er uavhengig av posisjonen til dette intervallet, men avhenger bare av lengden, forutsatt at dette intervallet er inkludert i lovens støtte. Så hvis X ≈ U ( a , b ) og [ x , x + d ] er et delintervall på [ a , b ], med d > 0 fast, så
P(X∈[x,x+d])=∫xx+ddyb-på=db-på{\ displaystyle \ mathbb {P} \ left (X \ in \ left [x, x + d \ right] \ right) = \ int _ {x} ^ {x + d} {\ frac {\ mathrm {d} y} {ba}} \, = {\ frac {d} {ba}} \, \!}som er uavhengig av x . Dette faktum motiverer betegnelsen på denne loven.
Standard uniformslov
Det spesielle tilfellet a = 0 og b = 1 gir opphav til standard ensartet lov , også bemerket U (0, 1). Legg merke til følgende faktum: Hvis u 1 fordeles i henhold til en standard uniform fordeling, er dette også tilfelle for u 2 = 1 - u 1 .
Ensartet lov på sett A
I hvilken som helst del A av Borel er Lebesgue-tiltaket λ ( A ) endelig og strengt positiv, vi forbinder en sannsynlighetsfordeling, kalt Uniform Law A of probability density function ƒ definert for av:
Rd,{\ displaystyle \ mathbb {R} ^ {d},} x∈Rd,{\ displaystyle x \ in \ mathbb {R} ^ {d},}
f(x) = 1λ(PÅ) χPÅ(x),{\ displaystyle f (x) \ = \ {\ frac {1} {\ lambda (A)}} \ \ chi _ {A} (x),}hvor χ A er den indikator funksjon av sammenstillingen A . Tetthet ƒ er null utenfor Et men lik konstanten 1 / λ ( A ) av A .
Det spesielle tilfellet som hovedsakelig behandles på denne siden er tilfellet der d = 1 og hvor A er et intervall [ a , b ] påR.{\ displaystyle \ mathbb {R}.}
Transport og uforanderlighet
Tilstrekkelig tilstand - Loven til den tilfeldige variabelen Y = T ( X ) , bilde, ved en transformasjon T , av en ensartet variabel X på en del A av er fortsatt den enhetlige loven på T ( A ) hvis T er, ved et sett ubetydelig nær, injiserende og differensierbar, og hvis den absolutte verdien til Jacobian of T , nesten overalt på A , er konstant.
Rd,{\ displaystyle \ mathbb {R} ^ {d},}
Eksempler på transformasjoner som respekterer ensartethet:
- Hvis T er affinert og bijektiv, følger Y den ensartede loven over T ( A ) .
- Særlig hvis T er en isometrisk av forlater A invariant, Y har den samme fordeling som X .Rd{\ displaystyle \ mathbb {R} ^ {d}}
- For eksempel er en isometri av blader som er uforanderlige, den ensartede loven på enhetsballen sentrert ved opprinnelsen, under forutsetning av at den forlater opprinnelsevarianten.Rd{\ displaystyle \ mathbb {R} ^ {d}}
- Et annet eksempel på isometri: hvis U er jevn over [0, 1], er 1 - U også.
- Hvis er brøkdelen av x , og ikke er injeksjonsdyktig eller differensierbar over alle [0, 1], men tilfredsstiller hypotesene som er angitt ovenfor, med T ([0, 1 [) = [0, 1 [ . Følgelig, og til og med virke som U . Ved å la rammen på denne siden være litt, og ved å merke M ( x ) punktet til den trigonometriske sirkelen som har for påføring, kan man da se M ( U ) som et punkt tegnet tilfeldig jevnt på den trigonometriske sirkelen. Punktene og blir deretter oppnådd ved rotasjon av vinkel 2π a (resp. Ved symmetri i forhold til linjen med retningsvinkel π a ) som er isometrier som etterlater enhetssirkelen invariant. Det er derfor ikke overraskende at disse punktene fortsatt følger den enhetlige loven om enhetssirkelen . Dette oversetter en veldig spesiell egenskap ved den ensartede loven: det er Haar-målet på{x}{\ displaystyle \ {x \}}T+,på(x)={på+x}{\ displaystyle T _ {+, a} (x) = \ {a + x \}}T-,på(x)={på-x}{\ displaystyle T _ {-, a} (x) = \ {ax \}}{på+U}{\ displaystyle \ {a + U \}}{på-U}{\ displaystyle \ {aU \}} e2Jegπx,{\ displaystyle {\ rm {e}} ^ {2 {\ rm {i}} \ pi x},}M({på+U}){\ displaystyle M (\ {a + U \})}M({på-U}){\ displaystyle M (\ {aU \})}R∖Z.{\ displaystyle \ mathbb {R} \ backslash \ mathbb {Z}.}
Konsekvens - Hvis sekvensen er en sekvens av uavhengige og ensartede tilfeldige variabler over [0, 1] og deretter er sekvensen en sekvens av uavhengige og ensartede tilfeldige variabler over [0, 1] .
V=(V1,V2,...,Vikke){\ displaystyle V = (V_ {1}, V_ {2}, \ prikker, V_ {n})}Uk={V1+V2+⋯+Vk},{\ displaystyle U_ {k} = \ {V_ {1} + V_ {2} + \ prikker + V_ {k} \},}U=(U1,U2,...,Uikke){\ displaystyle U = (U_ {1}, U_ {2}, \ prikker, U_ {n})}
Demonstrasjon
Den betingede loven om å vite at er loven som tilfeldigvis er den ensartede loven på [0, 1], som vi nettopp har sett noen få linjer ovenfor. Så den betingede loven om å vite at absolutt ikke avhenger av Dette har to konsekvenser:
Uk,{\ displaystyle U_ {k},}(V1,V2,...,Vk-1)=(på1,på2,...,påk-1),{\ displaystyle (V_ {1}, V_ {2}, \ prikker, V_ {k-1}) = (a_ {1}, a_ {2}, \ prikker, a_ {k-1}),}{på1+på2+⋯+påk-1+Vk},{\ displaystyle \ {a_ {1} + a_ {2} + \ prikker + a_ {k-1} + V_ {k} \},}Uk{\ displaystyle U_ {k}}(V1,V2,...,Vk-1)=(på1,på2,...,påk-1){\ displaystyle (V_ {1}, V_ {2}, \ prikker, V_ {k-1}) = (a_ {1}, a_ {2}, \ prikker, a_ {k-1})}(på1,på2,...,påk-1).{\ displaystyle (a_ {1}, a_ {2}, \ prikker, a_ {k-1}).}
-
Uk{\ displaystyle U_ {k}} følger ensartet lov på [0, 1];
-
Uk{\ displaystyle U_ {k}}er uavhengig av stammen generert av og, a fortiori, av stammen generert av siden(V1,V2,...,Vk-1){\ displaystyle (V_ {1}, V_ {2}, \ prikker, V_ {k-1})}(U1,U2,...,Uk-1),{\ displaystyle (U_ {1}, U_ {2}, \ prikker, U_ {k-1}),}σ(V1,V2,...,Vk-1) ⊃ σ(U1,U2,...,Uk-1).{\ displaystyle \ sigma (V_ {1}, V_ {2}, \ dots, V_ {k-1}) \ \ supset \ \ sigma (U_ {1}, U_ {2}, \ dots, U_ {k- 1}).}
Dette er nok til å konkludere.
Det kan virke overraskende at variablene og for eksempel, er uavhengige, mens de begge avhengige avgjørende på variabler og dette er en spesiell konsekvens av invarians eiendom av uniformen lov: for eksempel være tiltak de Haar av det er idempotent for den konvolusjon .
{V1+V2}{\ displaystyle \ {V_ {1} + V_ {2} \}}{V1+V2+V3},{\ displaystyle \ {V_ {1} + V_ {2} + V_ {3} \},}V1{\ displaystyle V_ {1}}V2.{\ displaystyle V_ {2}.}R∖Z,{\ displaystyle \ mathbb {R} \ backslash \ mathbb {Z},}
Tilknyttede distribusjoner
Følgende teorem sier at alle distribusjoner er relatert til den ensartede loven:
Gjensidig teorem - For en tilfeldig variabel med en fordelingsfunksjon F , betegner vi med G den generelle gjensidige , definert, for av:
ω∈]0,1[,{\ displaystyle \ omega \ in] 0.1 [,}
G(ω)=inf{x∈R | F(x)≥ω}.{\ displaystyle G (\ omega) = \ inf \ left \ {x \ in \ mathbb {R} \ | \ F (x) \ geq \ omega \ right \}.}
Hvis betegner en ensartet reell tilfeldig variabel over [0, 1], så har fordelingsfunksjonenU{\ displaystyle U}X=G(U){\ displaystyle X = G (U)}F.{\ displaystyle F.}
Kort fortalt, for å oppnå (uavhengige) tegninger i henhold til loven preget av F , er det tilstrekkelig å reversere denne funksjonen og bruke den på ensartede (uavhengige) tegninger.
Her er noen eksempler på denne loven:
-
Y = –ln ( U ) / λ fordeles i henhold til den eksponensielle loven med parameteren λ;
-
Y = 1 - U 1 / n fordeles i henhold til beta-loven til parameter 1 og n . Dette innebærer derfor at standard uniform lov er et spesielt tilfelle av beta loven, med parameter 1 og 1.
En mer komplett tabell finner du her . Videre er kunsten å generere tilfeldige variabler av vilkårlige lover, for eksempel ved bruk av ensartede variabler, utviklet i Non-Uniform Random Variate Generation , av Luc Devroye , publisert av Springer, tilgjengelig på nettet.
applikasjoner
I statistikk , når en p-verdi ( p-verdi ) brukes i en statistisk testprosedyre for en nullhypotese enkel, og at testen av fordelingen er kontinuerlig, blir p-verdien jevnt fordelt i henhold til den jevne fordelingen på [ 0, 1] hvis nullhypotesen holder.
Få ensartede lovprestasjoner
De fleste programmeringsspråk gir en pseudo-tilfeldig tallgenerator, hvis distribusjon er effektivt standard uniform lov.
Hvis u er U (0, 1), følger v = a + ( b - a ) u loven U ( a , b ).
Få realisasjoner av kontinuerlig lov
I følge teoremet sitert ovenfor, gjør den ensartede loven teoretisk det mulig å oppnå trekk fra enhver lov om kontinuerlig tetthet. Det er tilstrekkelig for å invertere funksjonen til distribusjon av denne loven, og å bruke den på tegninger av standard uniform lov. I mange praktiske tilfeller har vi dessverre ikke et analytisk uttrykk for distribusjonsfunksjonen; man kan da bruke en numerisk inversjon (kostbar i beregninger) eller konkurrerende metoder, for eksempel avvisningsmetoden .
Det viktigste eksemplet på svikt i den omvendte transformasjonsmetoden er Normalloven . Imidlertid Box-Muller gir Metode en praktisk metode for å transformere en ensartet prøve i en normal prøve på en nøyaktig måte.
Matematikere som Luc Devroye eller Richard P. Stanley populariserte bruken av uniformsloven på [0, 1] for å studere tilfeldige permutasjoner ( størrelser på sykluser , Eulerian tall , analyse av sorteringsalgoritmer som for eksempel rask sortering , for eksempel).
Konstruksjon av en enhetlig tilfeldig permutasjon ved hjelp av et utvalg av jevn fordeling
La være en sekvens av ensartede iid tilfeldige variabler på [0, 1], definert på et sannsynlig rom (for eksempel definert på utstyrt med sin stamme av borelianere og dens Lebesgue-mål , av eller på en ekvivalent måte av For alle heltall k mellom 1 og n , la
U=(U1,U2,...,Uikke){\ displaystyle U = (U_ {1}, U_ {2}, \ prikker, U_ {n})}(Ω,PÅ,P){\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}Ω=[0,1]ikke{\ displaystyle \ Omega = [0,1] ^ {n}}Uk(ω1,ω2,...,ωikke) = ωk,{\ displaystyle U_ {k} (\ omega _ {1}, \ omega _ {2}, \ prikker, \ omega _ {n}) \ = \ \ omega _ {k},}U(ω)=ω.{\ displaystyle U (\ omega) = \ omega.}
σ(k,ω) = VSpård{Jeg tels que 1≤Jeg≤ikke, et tels que UJeg(ω)≤Uk(ω)}.{\ displaystyle \ sigma (k, \ omega) \ = \ \ mathrm {Card} \ left \ {i \ \ mathrm {slik ~ som} \ 1 \ leq i \ leq n, \ \ mathrm {og ~ slik ~ at } \ U_ {i} (\ omega) \ leq U_ {k} (\ omega) \ right \}.}
Dermed blir tolket som en rang av i prøven, når den er anordnet i stigende rekkefølge.
σ(k,ω){\ displaystyle \ sigma (k, \ omega)}Uk(ω){\ displaystyle U_ {k} (\ omega)}
Proposisjon - Kartet er en enhetlig tilfeldig permutasjon.
k↦σ(k,ω){\ displaystyle k \ mapsto \ sigma (k, \ omega)}
Demonstrasjon
For en fast permutasjon τ , betegne
PÅτ= {x∈Rikke∣xτ(1)<xτ(2)<⋯<xτ(ikke)},{\ displaystyle A _ {\ tau} = \ \ left \ {x \ in \ mathbb {R} ^ {n} \ mid x _ {\ tau (1)} <x _ {\ tau (2)} <\ prikker <x_ {\ tau (n)} \ høyre \},}
og posere
τ.x= (xτ(1),xτ(2),...,xτ(ikke)).{\ displaystyle \ tau .x = \ (x _ {\ tau (1)}, x _ {\ tau (2)}, \ prikker, x _ {\ tau (n)}).}
Så
{x∈PÅτ} ⇔ {τ.x∈PÅJegd}.{\ displaystyle \ {x \ i A _ {\ tau} \} \ \ Leftrightarrow \ \ {\ tau .x \ i A _ {\ mathrm {Id}} \}.}
Dessuten, selvfølgelig, hvis da
U(ω)∈PÅτ,{\ displaystyle U (\ omega) \ i A _ {\ tau},}
{∀k tel que 1≤k≤ikke,σ(τ(k),ω) = k} ou eikkevs.ore {σ(.,ω)=τ-1}.{\ displaystyle \ left \ {\ forall k \ \ mathrm {such ~ que} \ 1 \ leq k \ leq n, \ quad \ sigma (\ tau (k), \ omega) \ = \ k \ right \} \ \ mathrm {eller ~ igjen} \ \ {\ sigma (., \ omega) = \ tau ^ {- 1} \}.}
Som
⋃τ∈SikkePÅτ = {x∈Rikke|les xJeg soikket tous dJegffe´reikkets},{\ displaystyle \ bigcup _ {\ tau \ in {\ mathfrak {S}} _ {n}} A _ {\ tau} \ = \ \ left \ {x \ in \ mathbb {R} ^ {n} \, | \, \ mathrm {the} \ x_ {i} \ \ mathrm {er ~ alle ~ diff {\ akutte {e}} leier} \ høyre \},}
det følger at
B=Ω∖(⋃τ∈SikkePÅτ) = ⋃1≤Jeg<j≤ikke{x∈Rikke|xJeg=xj}.{\ displaystyle B = \ Omega \ backslash \ left (\ bigcup _ {\ tau \ in {\ mathfrak {S}} _ {n}} A _ {\ tau} \ right) \ = \ \ bigcup _ {1 \ leq i <j \ leq n} \ left \ {x \ in \ mathbb {R} ^ {n} \, | \, x_ {i} = x_ {j} \ right \}.}
Hvis det finnes et par i < j som og følgelig Således σ (., Ω ) er ikke en permutasjon. Til slutt, siden B og typesettene danner en partisjon av det, følger det for enhver permutasjon τ ,
U(ω)∈B,{\ displaystyle U (\ omega) \ i B,}UJeg(ω)=Uj(ω),{\ displaystyle U_ {i} (\ omega) = U_ {j} (\ omega),}σ(Jeg,ω)=σ(j,ω).{\ displaystyle \ sigma (i, \ omega) = \ sigma (j, \ omega).}PÅρ{\ displaystyle A _ {\ rho}}Rikke,{\ displaystyle \ mathbb {R} ^ {n},}
{U(ω)∉PÅτ} ⇒ {σ(.,ω)≠τ-1},{\ displaystyle \ left \ {U (\ omega) \ notin A _ {\ tau} \ right \} \ \ Rightarrow \ \ {\ sigma (., \ omega) \ neq \ tau ^ {- 1} \}, }
Følgelig
P(U∈PÅτ) = P(σ=τ-1).{\ displaystyle \ mathbb {P} \ left (U \ in A _ {\ tau} \ right) \ = \ \ mathbb {P} \ left (\ sigma = \ tau ^ {- 1} \ right).}
Siden komponentene i den tilfeldige vektoren er uavhengige tilfeldige variabler med tetthet av respektive angitte tettheter, vet vi at den tilfeldige vektoren U i seg selv har en tetthet f , definert av
U=(U1,U2,...,Uikke){\ displaystyle U = (U_ {1}, U_ {2}, \ prikker, U_ {n})} fJeg,1≤Jeg≤ikke,{\ displaystyle f_ {i}, \ quad 1 \ leq i \ leq n,}
f(x)=∏Jeg=1ikkefJeg(xJeg).{\ displaystyle f (x) = \ prod _ {i = 1} ^ {n} f_ {i} (x_ {i}).}
Likeledes er en sannsynlighetstettheten til den tilfeldige vektoren τ.U er g , definert ved:
g(x)=∏Jeg=1ikkefτ(Jeg)(xJeg).{\ displaystyle g (x) = \ prod _ {i = 1} ^ {n} f _ {\ tau (i)} (x_ {i}).}
I tilfelle, som her, der komponentene i en tilfeldig vektor er iid, kan vi velge tettheter av sannsynligheter som alle er like. Dermed er tettheten f og g av de tilfeldige vektorene U og τ.U like: de tilfeldige vektorene U og τ.U har derfor samme lov. Derfor, for enhver permutasjon τ ,
fJeg{\ displaystyle f_ {i}}
P(U∈PÅJegd) = P(τ.U∈PÅJegd) = P(U∈PÅτ) = P(σ=τ-1).{\ displaystyle \ mathbb {P} \ left (U \ in A _ {\ mathrm {Id}} \ right) \ = \ \ mathbb {P} \ left (\ tau .U \ in A _ {\ mathrm {Id }} \ høyre) \ = \ \ mathbb {P} \ venstre (U \ i A _ {\ tau} \ høyre) \ = \ \ mathbb {P} \ venstre (\ sigma = \ tau ^ {- 1} \ høyre).}
Ellers,
P(U∈B) = P(∃Jeg<j tels que UJeg=Uj) ≤ ∑1≤Jeg<j≤ikkeP(UJeg=Uj) = 0.{\ displaystyle \ mathbb {P} \ left (U \ in B \ right) \ = \ \ mathbb {P} \ left (\ exist i <j \ \ mathrm {such ~ that} \ U_ {i} = U_ { j} \ høyre) \ \ leq \ \ sum _ {1 \ leq i <j \ leq n} \ mathbb {P} \ left (U_ {i} = U_ {j} \ right) \ = \ 0.}
Faktisk hyperplan har en null Lebesgue mål , og sannsynligheten lov av U er ved tetthet derfor helt kontinuerlig med hensyn til Lebesgue måle, derfor
{xJeg=xj}{\ displaystyle \ {x_ {i} = x_ {j} \}}
{λ({xJeg=xj})=0} ⇒ {0=PU({xJeg=xj})(=P(UJeg=Uj))}.{\ displaystyle \ left \ {\ lambda (\ {x_ {i} = x_ {j} \}) = 0 \ right \} \ \ Rightarrow \ \ left \ {0 = \ mathbb {P} _ {U} ( \ {x_ {i} = x_ {j} \}) (= \ mathbb {P} \ venstre (U_ {i} = U_ {j} \ høyre)) \ høyre \}.}
Endelig
ikke!P(σ=τ)=ikke!P(U∈PÅτ-1) = ikke!P(U∈PÅJegd)=∑ρ∈SikkeP(U∈PÅρ)=P(U∈B)+∑ρ∈SikkeP(U∈PÅρ)=1,{\ displaystyle {\ begynn {justert} n! \, \ mathbb {P} \ venstre (\ sigma = \ tau \ høyre) & = n! \, \ mathbb {P} \ venstre (U \ i A _ {\ tau ^ {- 1}} \ høyre) \ = \ n! \, \ Mathbb {P} \ venstre (U \ i A _ {\ mathrm {Id}} \ høyre) \\ & = \ sum _ {\ rho \ i {\ mathfrak {S}} _ {n}} \ mathbb {P} \ venstre (U \ i A _ {\ rho} \ høyre) \\ & = \ mathbb {P} \ venstre (U \ i B \ høyre) + \ sum _ {\ rho \ i {\ mathfrak {S}} _ {n}} \ mathbb {P} \ venstre (U \ i A _ {\ rho} \ høyre) \\ & = 1, \ end {align}}}
der den siste likheten bruker det faktum at B og settene danner en partisjon av PÅρ{\ displaystyle A _ {\ rho}}Rikke.{\ displaystyle \ mathbb {R} ^ {n}.}
Ovennevnte proposisjon forblir sant hvis sannsynlighetsfordelingen som er felles for variablene, har en tetthet , uansett hva den er, og ikke bare for den ensartede tettheten. Vi kan til og med være fornøyde med iid-variabler hvis lov er diffus (uten atomer), og modulerer en mindre modifikasjon av beviset. Imidlertid er den ensartede loven spesielt praktisk for forskjellige bruksområder.
UJeg{\ displaystyle U_ {i}}
Antall nedstigninger av tilfeldig permutasjon, og Eulerianske tall
La være antall utforkjøringer av en permutasjon trukket tilfeldig jevnt i
Selvfølgelig,
Xikke(ω){\ displaystyle X_ {n} (\ omega)}σ(ω){\ displaystyle \ sigma (\ omega)}Sikke.{\ displaystyle {\ mathfrak {S}} _ {n}.}
P(Xikke=k)=ikkeombre de vs.pås fpåvorpåblesikkeombre de vs.pås sossJegbles=PÅ(ikke,k)ikke!,{\ displaystyle {\ begin {align} \ mathbb {P} \ left (X_ {n} = k \ right) & = {\ frac {\ mathrm {number ~ of ~ gunstig ~ cases}} {\ mathrm {number ~ av ~ mulige ~ saker}}} \\ & = {\ frac {A (n, k)} {n!}}, \ end {justert}}}
hvor A ( n , k ) angir antall permutasjoner for å ha nøyaktig k nedstigninger. A ( n , k ) kalles et eulerisk nummer . La oss stille
Sikke{\ displaystyle {\ mathfrak {S}} _ {n}}
Sikke=U1+U2+⋯+Uikke.{\ displaystyle S_ {n} = U_ {1} + U_ {2} + \ prikker + U_ {n}.}
Vi har da
Teorem (S. Tanny, 1973) - Tilsvarende
P(Xikke=k) = P(⌊Sikke⌋=k) = P(k≤Sikke<k+1),{\ displaystyle \ mathbb {P} \ left (X_ {n} = k \ right) \ = \ \ mathbb {P} \ left (\ lfloor S_ {n} \ rfloor = k \ right) \ = \ \ mathbb { P} \ venstre (k \ leq S_ {n} <k + 1 \ høyre),}
eller
PÅ(ikke,k) = ikke! P(k≤Sikke<k+1).{\ displaystyle A (n, k) \ = \ n! \ \ mathbb {P} \ left (k \ leq S_ {n} <k + 1 \ right).}
Demonstrasjon
Vi antar at sekvensen konstruert ved hjelp av en sekvens av uavhengige og ensartede tilfeldige variabler på [0, 1], via forholdet. Vi vet da, takket være invarianshensyn ( se ovenfor ), at en sekvens er av uavhengige og ensartede tilfeldige variabler på [0 , 1]. Vi konstruerer deretter en jevn tilfeldig permutasjon σ (., Ω ) ved bruk av sekvensen U , som angitt i avsnittet ovenfor : det er nedstigning til rangering i for σ (., Ω ) hvis σ ( i , ω )> σ ( i + 1, ω ) eller, på en ekvivalent måte, hvis man parallelt trekker på den trigonometriske sirkelen , hvor punktene har for fikseringene, foretar man deretter en tur på enhetssirkelen, bestående i å krysse punktene og deretter ..., deretter i det rekkefølge, fortsatt vri mot klokken, og starte fra punkt A med påføring 1 (med kartesiske koordinater (0, 1)). Den totale lengden på stien som dermed er reist er da
U=(U1,U2,...,Uikke){\ displaystyle U = (U_ {1}, U_ {2}, \ prikker, U_ {n})}V=(V1,V2,...,Vikke){\ displaystyle V = (V_ {1}, V_ {2}, \ prikker, V_ {n})}Uk={V1+V2+⋯+Vk}.{\ displaystyle U_ {k} = \ {V_ {1} + V_ {2} + \ dots + V_ {k} \}.}U=(U1,U2,...,Uikke){\ displaystyle U = (U_ {1}, U_ {2}, \ prikker, U_ {n})}UJeg(ω)>UJeg+1(ω).{\ displaystyle U_ {i} (\ omega)> U_ {i + 1} (\ omega).}Mk(ω){\ displaystyle M_ {k} (\ omega)} e2JegπUk(ω).{\ displaystyle {\ rm {e}} ^ {2 {\ rm {i}} \ pi U_ {k} (\ omega)}.}M1(ω),{\ displaystyle M_ {1} (\ omega),}M2(ω),{\ displaystyle M_ {2} (\ omega),}Mikke(ω),{\ displaystyle M_ {n} (\ omega),}
2π (V1+V2+⋯+Vikke).{\ displaystyle 2 \ pi \ \ left (V_ {1} + V_ {2} + \ dots + V_ {n} \ right).}
Videre er det ned til et nivå i for σ (., Ω ) hvis og bare hvis trinn av det ovennevnte reise fra punkt utvikles gjennom A . Så antall nedstigninger av σ (., Ω ) er antall kryssinger av punkt A , som også er antall komplette svinger av enhetssirkelen som ble gjort under turen fra A til I lys av beregningen som gir den totale lengden på stien så godt som reist, se ovenfor, antall komplette svinger er også skrevet:
MJeg(ω){\ displaystyle M_ {i} (\ omega)}MJeg+1(ω){\ displaystyle M_ {i + 1} (\ omega)}Mikke(ω).{\ displaystyle M_ {n} (\ omega).}
⌊V1(ω)+V2(ω)+⋯+Vikke(ω)⌋.{\ displaystyle \ left \ lfloor V_ {1} (\ omega) + V_ {2} (\ omega) + \ dots + V_ {n} (\ omega) \ right \ rfloor.}
Dermed er antallet nedstigninger av σ (., Ω ) lik Antall nedstigninger av σ har derfor samme lov som⌊V1(ω)+V2(ω)+⋯+Vikke(ω)⌋.{\ displaystyle \ left \ lfloor V_ {1} (\ omega) + V_ {2} (\ omega) + \ dots + V_ {n} (\ omega) \ right \ rfloor.}⌊Sikke⌋.{\ displaystyle \ left \ lfloor S_ {n} \ right \ rfloor.}
Fra dette følger umiddelbart en sentral grensesetning for via Slutskys setning .
Xikke,{\ displaystyle X_ {n},}
Merknader og referanser
-
Se detaljert artikkel her .
-
PDF-versjonen (gratis og autorisert) av (en) Luc Devroye , Non-Uniform Random Variate Generation , New York, Springer-Verlag,1986, 1 st ed. ( les online ) er tilgjengelig, samt en humoristisk beretning om Luc Devroye's krangel med redaktøren.
-
Nærmere bestemt krever metode to uavhengige trekker U (0, 1) for å tilveiebringe to uavhengige normal trekker.
-
se (i) S. Tanny , " En sannsynlig tolkning av Eulerianske tall " , Duke Math. J. , vol. 40,1973, s. 717-722eller (en) RP Stanley , “ Eulerian partitions of a unit hypercube ” , Higher Combinatorics , Dordrecht, M. Aigner, red., Reidel,1977.
Relaterte artikler