Lov om pålitelighet

Hovedproblemet med pålitelighet er å forutsi sannsynligheten for at det oppstår systemfeil (feil). Dette gjøres ved å etablere en lov om pålitelighet .

Pålitelighetsdata

Dødelighet og overlevelsesfunksjoner

Når datoene for feil er kjent med presisjon

Et selskap markedsfører N-systemer på tidspunkt 0; vi antar at disse systemene ikke kan repareres. Vi registrere de første øyeblikk av svikt t i  : { t 1 , t 2 ..., t n } som vi antar er klassifisert i stigende rekkefølge. Indeksen i kalles "rang", siden den er indeksen til en sekvens . Uttrykket "øyeblikk" kan betegne en driftstid - vanligvis uttrykt i timer, dager eller år -, men også et antall omdreininger for en roterende maskin, et antall sykluser for et system som fungerer i sykluser, etc.

Når som helst t kan vi bestemme andelen systemer som har opplevd en feil: dette er "dødeligheten", bemerket F:

eller, på en indeksert måte, ettersom den t i klassifiseres i stigende rekkefølge

, hvor N er størrelsen på den observerte prøven.

Mengden i = kort { t j ≤ t } - antall systemer som har opplevd en feil før t (se kardinal (matematikk) ) - kalles "kumulativt antall feil"; F kalles også "kumulativ frekvens". Dødeligheten F starter fra 0 - alle systemer anses å være i drift ved igangkjøring - og når 1 (eller 100%) etter en viss tid - systemene er ikke evige og alle ender med å mislykkes en gang. Denne funksjonen F tilsvarer statistisk en distribusjonsfunksjon .

Vi definerer også den komplementære funksjonen, kalt "pålitelighet" eller "overlevelse", og bemerket R (pålitelighet)  :

R ( t ) = 1 - F ( t ) R i = 1 - F i

Det er generelt denne R-funksjonen vi vurderer: den tillater en mer positiv presentasjon av pålitelighet (vi snakker om hva som fungerer i stedet for hva som ikke fungerer). Fra et matematisk synspunkt er F mer relevant siden det er en fordelingsfunksjon. I analysen av komplekse systemer er R mer relevant når det gjelder serieassosiasjoner, og F er mer relevant når det gjelder parallelle assosiasjoner ( oppsigelser ), se Funksjonsdiagrammer over pålitelighet . Når det gjelder et system i henhold til en eksponentiell eller Weibull-lov - veldig hyppige situasjoner - er uttrykket for overlevelsesloven R enklere enn for dødelighetsloven F.

Tidspunktene for forekomsten av feil t i er tilfeldige variabler . Faktisk er R (og F) også tilfeldige variabler, det er derfor nødvendig å korrigere de kumulative frekvensene, med formler som kommer fra binomialoven .

Definisjon av kumulative frekvenser
Prøvestørrelse Formel Kumulativ frekvens
N ≤ 20 median rangerer formel
20 ≤ N ≤ 50 gjennomsnittlig rangering formel
N ≥ 50 modusformel
Demonstrasjon

F i er en kumulativ frekvens, slik at det er sannsynligheten for at T er mindre enn eller lik t i  :

F i = P ( t ≤ t i )

Sannsynligheten for at vi har k- verdier i [0; t i ] tilsvarer k utvalg av sannsynlighet F i , vi har derfor i følge binomialfordelingen en sannsynlighet

Når feildatoene er ordnet i rekkefølge, er sannsynligheten for at t i faktisk er i -th-verdien sannsynligheten for at vi har i- verdier i [0; t i ] enten

Denne sannsynligheten p er nivået av tillit i den stilling av t i . Vi anerkjenner sannsynlighetstetthetsformelen til en Fisher-lov

med

og vi kan identifisere gradene av frihet av eksponentene:

Hvis vi fikser konfidensnivået, kan vi bestemme F i ved å snu binomialoven. Dette involverer fordelingsfunksjonen i Fishers lov  :

med grader av frihet

  • v 1 = 2 i  ;
  • ν 2 = 2 (N - i ).

Med tanke på en medianrangering tar vi p = 0,5 (50%), som gir oss formlene som er vurdert.

Vi kan også definere et konfidensintervall for en gitt bilateral risiko α (bilateralt konfidensnivå 1 - α), med Fishers lov , Q p ( ν 1 , ν 2 ) som kvantil av rekkefølge p av Fishers lov:

nedre grense :, med
  • ν 1 = 2 (N - i + 1)
  • ν 2 = 2 i
øvre grense :, med
  • ν 1 = 2 ( i + 1)
  • ν 2 = 2 (N - i )
Med sensurert data

Vi vet ikke alltid nøyaktig tidspunktet for feil. noen ganger har vi antall feil som oppstår under et tidsintervall ( intervallsensur ). For eksempel, hvis et system overvåkes i flere år, registreres antall feil hver måned. Således, ved tiden t i , har vi antallet n j av feil som oppstår i intervaller] t j - 1  ; t j ]. Vi har da

muligens korrigert med en rangformel.

Metoden presentert ovenfor er også egnet når vi stopper observasjonen i et gitt øyeblikk, mens noen systemer fremdeles er i bruk: det er et tilfelle av riktig sensur, men som vi ikke har noen data for etterpå. Datoen for sensur.

På den annen side er denne metoden ikke egnet når det er sensur til venstre eller sensur til høyre, men med senere feildatoer; for eksempel hvis et system er nede eller vedlikeholdes før feilen av en eller annen grunn. I disse tilfellene er fremgangsmåter anvendt som beregner en sannsynlighet P i av svikt i løpet av et intervall i , deretter utlede et pålitelighet R jeg derfra .

Vi bruker hovedsakelig Kaplan-Meier- metoden , den aktuarmessige metoden og Turnbull-metoden , og sjeldnere Wayne-Nelson- metoden og Herd-Johnson-korrigert rangmetoden . Hvis vi ikke har sensur, finner vi generelt formelen for gjennomsnittlig rangering eller modus.

Feil tetthet

Svikt tettheten er definert som endringshastigheten til dødelighetsfunksjonen F. Det er "dødelighetsgraden":

eller:

Hvis n ( t ) er antall kumulative feil på tidspunktet t (antall feil mellom 0 og t ), har vi

og så

.

Med den indekserte notasjonen har vi:

.

Legg merke til forskjellen mellom n i , som er antall feil mellom t i og t i + 1 , og n ( t ) som er antall feil mellom 0 og t .

Strykprosent

Vi definerer sviktfrekvensen λ (gresk bokstav lambda) over et intervall] t , t + Δ t ] som motsatt av den relative hastigheten på endring i overlevelse:

Så det er forholdet mellom antall feil i det intervallet og antall systemer som er igjen ved starten av intervallet, delt på varigheten av intervallet. Det er et positivt tall. Vi har :

eller på en indeksert måte

Hva betyr disse mengdene konkret?

For en populasjon av N-systemer
  • R ( t ) er andelen av systemene som fortsatt er i bruk på tidspunktet t . Det er andelen systemer hvis levetid T er større enn t . N · R ( t ) er antallet slike systemer.
  • F ( t ) er andelen systemer som har opplevd en feil før tid t . Det er andelen av systemer hvis levetid T er mindre enn eller lik t . N · F ( t ) er antall slike systemer.
  • ƒ ( t ) · Δ t er andelen av systemer som vil svikte i intervallet] t  ; t + Δ t ]. Det er andelen systemer hvis levetid T er i] t  ; t + Δ t ]. Nm ƒ ( t ) .Δ t er antallet av slike systemer.
  • λ ( t ) · Δ t er den andel som vil svikte i intervallet] t  ; t + Δ t ] blant systemene som fremdeles er i bruk på tidspunktet t . Det er andelen blant systemene som har en levetid større enn t , av systemene hvis levetid T er i] t  ; t + Δ t ]. N · R ( t ) · λ ( t ) · A t er antallet slike systemer.
For et gitt system
  • R ( t ) er sannsynligheten for fortsatt å være i tjeneste på tidspunktet t . Det er sannsynligheten for å ha en levetid T større enn t R ( t ) = P (T> t ).
  • F ( t ) er sannsynligheten for å ha mislyktes før tid t . Det er sannsynligheten for å ha en levetid T mindre enn eller lik t  : F ( t ) = P (T ≤ t ).
  • ƒ ( t ) · Δ t er sannsynligheten for å ha en svikt i intervallet] t  ; t + Δ t ]. Det er sannsynligheten for å ha en levetid T in] t  ; t + Δ t ] ƒ ( t ) · Δ t = P (T ∈] t  ; t + Δ t ]).
  • λ ( t ) · Δ t er det sannsynlighet, dersom systemet er fremdeles i drift ved tidspunktet t , for å oppleve en svikt i intervallet] t  ; t + Δ t ] ( betinget sannsynlighet ). Det er sannsynligheten, hvis systemet har en levetid større enn t , for å ha en levetid T er i] t  ; t + Δ t ]. λ ( t ) · Δ t = P (T ∈] t  ; t + Δ t ] | T> t ).

Forskjellen mellom tettheten ƒ og hastigheten λ kan være vanskelig å forstå. La oss si at når vi legger et system i drift, vi vet at etter en tids bruk t i fremtiden, vil det ha en sannsynlighet ƒ for å bryte ned. Hvis vi nå ser på et system som allerede har blitt brukt i en periode t , vet vi at det har en sannsynlighet λ for å mislykkes nå.

Innsamling av data

Det kritiske punktet er vanligvis datainnsamling.

Det enkleste tilfellet er at en industriist avhenger av maskinparken: han ber vedlikeholdsteamet om å registrere feilene. Når det gjelder en produsent som ønsker å evaluere de solgte produktene, er problemet mer delikat. Bilprodusenter krever generelt at vedlikehold utføres i en garasje i deres nettverk under straff for annullering av garantien , noe som gjør det mulig å innhente statistikk i denne perioden; problemet er da at vi ikke vet hvordan produktet ble brukt (jevn eller nervøs kjøring, motorvei eller by), vi vet bare datoen for igangkjøring og kjørelengde.

Men en produsent vil kanskje også vurdere loven om overlevelse før de markedsføres, for å kunne størrelsen på garantiperioden og gi råd om en vedlikeholds- / overhalingsdato. For å gjøre dette kan den utføre pålitelighetstester. Testen må gjengi den faktiske bruken av produktet, som innebærer å definere en "misjonsprofil", det vil si en referansemåte (brukstype for et kjøretøy, produksjonshastighet og innstillinger for en industrimaskin, etc.).

Et viktig poeng er, der det er mulig, å skille mellom forskjellige feilmodi. Faktisk følger hver feilmodus sin egen dødelighet / overlevelsesstatistikk, og vi kan se oppførselen til et komplekst system som sammensetningen av hver modus. Avhengig av detaljnivået som er målrettet, kan vi skille dataene for hver komponent (delsystem) eller for et gitt delsystem, de forskjellige feilmodusene - for eksempel for en mekanisk del, skiller slitasje fra trøtt trøtt.

Eksempel

Et jernbaneselskap som følger øyeblikket av første svikt i et utvalg på 28 lokomotiver i ett år, da deres første overhaling finner sted. Servicetidene før den første feilen er gitt i dager og er i stigende rekkefølge: {2, 5, 9, 13, 17, 22, 27, 39, 39, 39, 52, 64, 64, 76, 86, 97 , 108, 121, 135, 151, 169, 191, 215, 245, 282, 332,> 365,> 365}. Vi har N = 28, så vi bruker formelen for gjennomsnittlig rangering.

Vær oppmerksom på at to av lokomotivene ikke led feil før den første overhalingen; det er et tilfelle av høyresensur . Disse to tilfellene gjør det ikke mulig å "plassere poeng" på kurven, men inngår likevel i statistikken, siden de er en del av det totale antallet N. Vi bruker først rangeringsmetoden.

Svikt i lokotraktorer. Median radmetode
Kumulativt antall
feil
i

Feil øyeblikkelig
t i (j)
Kumulativ frekvens
(dødelighet)
F
Pålitelighet
(overlevelse)
R

Svikt hastighet
λ (j -1 )
1 2 0,034 5 0,966 0,012 3
2 5 0,069 0 0,931 0,009 62
3 9 0,103 0,897 0,010 0
4 1. 3 0,138 0,862 0,010 4
5 17 0,172 0,828 0,008 70
6 22 0,207 0,793 0,009 09
7 27 0,241 0,759 0,011 9
10 39 0,345 0,655 0,004 27
11 52 0,379 0,621 0,009 80
...
90% bilaterale konfidensintervaller
Kumulativt antall
feil
i

Feil øyeblikkelig
t i (j)
F i min F i F i maks
1 2 0,002 0,034 5 0,07
2 5 0,01 0,069 0 0,1
3 9 0,03 0,103 0,11
4 1. 3 0,05 0,138 0,2
5 17 0,07 0,172 0,3
6 22 0,1 0,207 0,3
7 27 0,1 0,241 0,4
10 39 0,2 0,345 0,4
11 52 0,2 0,379 0,5
...

La oss ta eksemplet med Kaplan-Meier-metoden.

For hver svikt dato t jeg , vi fastslå:

  • antallet N i systemer som fremdeles er i drift før t i (hverken ødelagt eller sensurert);
  • antall Di i systemer som feiler i løpet av dagen t i  ;

og vi trekker ut P i den betingede sannsynligheten for svikt i løpet av dagen t i  :

P i = D i / N i

og pålitelighet R jeg ved tiden t i  :

.

Det tas derfor hensyn til sensur av N i .

Svikt i lokotraktorer. Kaplan-Meier-metoden

Feil øyeblikkelig
t i (j)
Antall
systemdrift
N i
Antall
mislykkede systemer
D i
Betinget sannsynlighet
for svikt
P i
Pålitelighet
(overlevelse)
R i
2 28 1 0,035 7 0,964
5 27 1 0,037 0 0,929
9 26 1 0,038 5 0,893
1. 3 25 1 0,04 0,857
17 24 1 0,041 7 0,821
22 23 1 0,043 5 0,786
27 22 1 0,045 5 0,75
39 21 3 0,143 0,643
52 18 1 0,055 6 0,607
...

Aktuarmetoden består i å dele overvåkingsperioden inn i seksjoner med like varighet. Sammenlignet med Kaplan-Meier-metoden kan vi derfor ha sensur i løpet av en seksjon. Når vi refererer til en dato t i teller vi de feil D jeg og sensorene C i løpet av intervallet foregående t i , det vil si [ t i - 1  ; t i [. Så det har vi gjort

og alltid

.

Vi vilkårlig anser at på C jeg sensurert systemer, halvparten ville ha presentert en fiasko.

Det krever færre beregninger enn Kaplan-Meier-metoden, men bruker derimot ikke all informasjonen (den akkumulerer datoer over en periode) og er derfor bare presis for store prøver. Det gjelder bare når vi har en stor mengde data, vanligvis minst 30 eller 50 - dette er ikke tilfelle med vårt eksempel, men vi vil bruke det uansett. Antall klasser - antall tidsintervaller - er vanligvis kvadratroten til prøvestørrelsen. Her velger vi vilkårlig en varighet på to uker (fjorten dager).

Svikt i lokotraktorer. Aktuarmetode

Referanse øyeblikkelig
t i (j)
Klasse
[t i  ; t i + 1 [
Antall
systemdrift
N i
Antall
mislykkede systemer
D i
Antall
sensurerte systemer
C i
Betinget sannsynlighet
for svikt
P i
Pålitelighet
(overlevelse)
R i
0 [0; 14 [ 28 4 0 0,143 1
14 [14; 28 [ 24 3 0 0,125 0,857
28 [28; 42 [ 21 3 0 0,143 0,75
42 [42; 56 [ 18 1 0 0,0556 0,643
56 [56; 70 [ 17 2 0 0,118 0,607
...

Typiske profiler

Fra et fenomenologisk synspunkt forteller den øyeblikkelige feilfrekvensen λ oss om systemets oppførsel:

  • en avtagende λ indikerer at feilraten synker over tid; dette er referert til som "  spedbarnsdødelighet  " eller "  ung  ". det er vanligvis feil i systemer som har "ungdomsfeil" eller ikke-kvaliteter, eller systemer i innkjøring  ;
  • en konstant λ indikerer et system "uten minne": feilfrekvensen er konstant, sannsynligheten for feil i et gitt system er jevn over tid, det er ingen slitasje; vi snakker noen ganger om "rent tilfeldig" fiasko;
  • en økende λ: sviktfrekvensen øker med tiden, noe som indikerer et fenomen aldring, slitasje.

Merk at i alle tilfeller synker R, selv om feilprosenten avtar.

Vi representerer kurver for de tre tilfellene nedenfor, med fire grafer i hvert tilfelle:

  • øverst til venstre, overlevelse og dødelighetskurver;
  • nederst til venstre, tetthetsfunksjonen til pålitelighetsloven (øyeblikkelig sannsynlighet for svikt);
  • øverst til høyre, den øyeblikkelige feilfrekvensen λ som en funksjon av tiden;
  • nederst til høyre, overlevelseskurven i en Weibull-graf, ln (-ln (R)) som en funksjon av ln ( t ), se Weibulls lov> Bestemmelse av lovens parametere .

For å komme tilbake til forskjellen mellom tettheten ƒ og hastigheten λ:

  • vi ser at når λ er jevnt synkende eller konstant, synker ƒ;
  • når λ øker jevnt, har ƒ en topp, så systemene har en tendens til å bryte sammen samtidig.

Når det gjelder elektroniske systemer, har vi ofte en sviktfrekvenskurve λ i tre deler (øverste høyre kurve i figuren motsatt): avtagende λ (svikt i defekte systemer), deretter konstant λ (tilfeldig svikt, mesteparten av kurven) deretter øker λ (aldring på slutten). Vi snakker om en " badekarformet kurve" .

Når det gjelder mekaniske systemer, har vi en sviktfrekvenskurve λ i to deler: avtagende λ (innkjøring) og deretter økning av λ (slitasje), noe som gir en generelt parabolsk kurve.

Merk at hvis vi snur overlevelseskurven en kvart sving mot venstre, får vi en alderspyramide uttrykt som en andel av den totale befolkningen.

Indikatorer for pålitelighet

Fra disse dataene kan det defineres en rekke pålitelighetsindikatorer. Spesielt kan vi definere gjennomsnittlig driftstid før feil, eller MTTF (gjennomsnittlig tid til feil)  :

hvis vi vet de nøyaktige tidspunktene for hver feil, eller

i tilfelle intervallsensur.

Vi bestemmer også forventet levetid x  %, betegnet L x eller B x , det vil si tiden etter hvilken det er x  % svikt og derfor 100 - x  % overlevelse. For eksempel :

L 10 , eller B 10 , er tiden etter at 90% av systemene forblir i drift (10% feil). L 50 , eller B 50 , er tiden etter at 50% av systemene forblir i drift (50% feil), derfor medianen for levetiden.

Vi anser her bare tilfellene av den første feilen. Andre nyttige indikatorer er definert når man vurderer reparasjon av systemer, og derfor tiden mellom to feil samt reparasjonstiden.

Eksempel

I forrige eksempel kan vi ikke beregne den eksakte MTTF siden to data mangler. Imidlertid kan vi estimere et minimum MTTF ved å vurdere at de to sensurerte lokotraktorene hadde en feil på 365  dager . Vi finner

MTTF ≥ 119  d .

Dessuten, med en prøve av 28 locotractors, L 10 er den tid etter hvilken det er 3 svikt (3 ≈ 28/10), d.v.s.

M 10 ≈ 9  d

Medianen skiller prøven i to deler av 14 systemer, så ligger mellom t 14 = 76  j og t 15 = 86  j  ; etter konvensjon tar vi midten heller

L 50 ≈ 81  d

Ikke-parametrisk analyse

En ikke-parametrisk analyse er en analyse som ikke involverer en lov. Disse metodene består i hovedsak i å konstruere "trapp" -overlevelseskurver (med ett trinn for hver feil observert), med metodene presentert ovenfor (rangmetode, metode med sensur). Karakteristiske data nevnt ovenfor kan hentes fra den - median overlevelse (50% av systemene mislykkes før dette punktet, 50% etter) eller andre kvantiler (for eksempel første desil, L 10 ), MTTF, feilrate i et gitt øyeblikk .

Fordelen er at man ikke forutsetter en fordeling; i forlengelsen kan vi jobbe med data som ingen distribusjon beskriver tilfredsstillende. Ulempen er at vi har en lavere presisjon (et bredere konfidensintervall), og at vi ikke kan forutsi eller ekstrapolere.

Eksempel

Vi bygde kurvene for eksempel med lokotraktorer. Vi kan utlede at vi har

  • en L 10 av 9  dager ,
  • en median L 50 til 81  d ,
  • en MTTF større enn 119  dager ,
  • og en samlet synkende feilfrekvens λ, noe som indikerer at vi fremdeles er i "ungdoms" -feil og ennå ikke i slitasje.

Parametrisk analyse

I en rekke tilfeller kan en statistisk lov brukes til å beskrive dataene. Parametrene i denne loven er tilpasset dataene ved regresjon eller ellers av maksimal sannsynlighet , fra de numeriske verdiene for pålitelighet R etablert (ved rangmetoden eller en metode med sensur).

Fordelen over en ikke-parametrisk analyse er at vi har en mye bedre presisjon (et mindre konfidensintervall). Ulempen er at det er nødvendig å ha tilgjengelig en lov som beskriver dataene godt, noe som ikke alltid er tilfelle, samt dataressurser for å utføre beregningene.

Generelt brukes en kontinuerlig lov. Vi sa tidligere at F er en distribusjonsfunksjon. Funksjonen F er generelt differensierbar, noe som gjør det mulig å definere tetthetsfunksjonen ƒ:

og den øyeblikkelige feilprosenten

.

Enhver statistisk lov kan brukes så lenge den beskriver dataene, og hvis mulig har en "fysisk betydning". I praksis beholder vi generelt fire lover:

Vi møter sjeldnere loven χ ² , av den minste eller største ekstreme verdien , om Poisson , binomial , logistisk eller log-logistisk .

For problemer med tretthet , bruk dedikerte lover: Law Wohler , Law Basquin , Bastenaire law .

Weibulls lov brukes ofte fordi:

  • den har positive verdier, i motsetning til normal lov for eksempel, men bare positive aldersverdier har betydning (feil før idriftsettelse blir ikke vurdert );
  • det gjør det mulig å simulere mange forskjellige profiler, spesielt
    • λ avtar for β <1,
    • λ-konstanter - eksponentiell lov - for β = 1,
    • λ øker for β> 1,
    • den nærmer seg en normalfordeling for 3 ≤ β ≤ 4;
  • man kan enkelt bestemme egenskapene fra et Weibull / Allen-flettdiagram  ;
  • feilprosenten λ blir lett ekstrahert fra den.

Eksempel

La oss ta eksemplet med lokotraktorer ovenfor. Vi tester flere modeller:

  • den eksponensielle modellen: påliteligheten er av formen
    R ( t ) = e -λ t , det vil si
    ln (R) = -λ t,
    ved å tegne diagrammet ( t , ln R), må vi få en linje som passerer til og med 0 og av skråning -λ, som gir oss lovens parameter;
  • den normale modellen: vi tegner Henrys linje , som lar oss få parametrene μ (forventning) og σ (standardavvik) til loven;
  • log-normal-modellen: vi tegner også en Henry-linje ved å bruke kvantilene til log-normalfordelingen;
  • Weibull-modellen: vi tegner et Weibull-diagram (eller Allen Plait-diagram) (ln t , ln (-ln R)), som gjør det mulig å oppnå en rett linje; skråningen og y-skjæringspunktet på linjen gir oss parametrene β (form) og λ (skala) til loven.

Linjene oppnås ved lineær regresjon . Vi kan se grafisk at det er Weibull-modellen som passer best, med:

  • β ≈ 0,8;
  • λ ≈ 125.

Vi har en fallende feilrate (β <1). Fra disse parametrene kan vi utlede MTTF, som er lovens forventning:

så vel som medianen og forventet levetid 10%

. L 10 ≈ 8  d Beregning av L 10

Vi har

er

Digital applikasjon:

Sammenligning av parametriske og ikke-parametriske analyser
Modell MTTF L 10 L 50
Ikke-parametrisk
(median rang)
≥ 119  dager 9  dager 81  d
Parametrisk
(Weibull-lov)
142  dager 8  dager 79  d

Hvis den parametriske modellen er relevant , er det bedre å beholde resultatene av den parametriske modellen. Men det er alltid nyttig å bestemme de samme indikatorene med en ikke-parametrisk metode for å kontrollere konsistensen av resultatene.

Merk at her utførte vi lineære regresjoner på spesifikke diagrammer ( semi-log-diagram , Henry-linje , diagram Allen Plait ). Denne metoden gjør det mulig å gjøre beregningene "for hånd", men gjør det ikke mulig å sammenligne resultatene kvantitativt. Vi kan også utføre en ikke-lineær regresjon på rådataene (ved hjelp av metoden med minste firkanter eller maksimal sannsynlighet ), som gjør det mulig å sammenligne restene. Imidlertid kan vi starte med lineære regresjoner for å starte fra en omtrentlig løsning, og derfor legge til rette for konvergens og redusere antall regresjonstrinn.

Sammenligning av regresjoner
Lov
Lineær regresjon

Minste kvadraters regresjon
S
Eksponentiell λ = 0,007 36 λ = 0,008 22 0,025 2
Vanlig μ = 117
σ = 120
μ = 99,1
σ = 104
0,114
Logg-normal μ = 4,21
σ = 1,62
μ = 4,30
σ = 1,43
0,012 6
Weibull β = 0,825
λ = 124,7
β = 0,827
λ = 124,5
0,001 03

Tabellen ovenfor sammenligner verdiene til parametrene som er oppnådd med en lineær regresjon på et tilpasset diagram, og de som oppnås ved minste kvadraters regresjon (ikke-lineær). Vi finner at summen av kvadratene til restene, S, er den minste for Weibulls lov.

Tilnærming etter en eksponentiell lov

I et visst antall tilfeller, og spesielt når man mangler informasjon som gjør det mulig å bruke en mer relevant modell, foretar man en tilnærming som har en eksponentiell lov. Generelt sett er den øyeblikkelige sviktfrekvensen λ stabil - den eksponentielle loven er derfor relevant - eller øker. I sistnevnte tilfelle forutsier den eksponentielle loven en høyere dødelighet enn virkeligheten “i de første øyeblikkene”, som går i retning av forsiktighet (såkalt “konservativ” tilnærming). Denne tilnærmingen er imidlertid ikke relevant hvis vi har en avtagende λ; vi ser dessuten i eksemplet på lokotraktorene at den eksponensielle kurven er over eksperimentelle punkter opp til omtrent t = 200  j .

Det faktum å bruke en eksponentiell lov letter beregninger, spesielt når man tar hensyn til komplekse systemer (se Funksjonsdiagram for pålitelighet ).

Noen dokumenter gir en feilrate λ, i form av en enkelt verdi, selv når denne frekvensen ikke er konstant. Dette er en stilltiende tilnærming etter en eksponentiell lov. Noen dokumenter er mer "ærlige" og gir en feilrate λ i en gitt levetid. Dette tilsvarer en eksponentiell tilnærming "rundt et punkt", som en begrenset utvidelse .

Se også

Relaterte artikler

Merknader og referanser

  1. eller for å være nøyaktig: en sannsynlighet ƒ ( t ) · Δ t for å bryte ned i perioden [ t  ; t + Δ t ]
  2. eller mer presist: en sannsynlighet λ ( t ) · Δ t for å mislykkes over tid Δ t Følgende
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">