Ikke-lineær regresjon

En ikke-lineær regresjon består i å tilpasse en modell, generelt ikke-lineær,

y = ƒ a 1 ,…, a m ( x )

for et sett med verdier ( x i , y i ) 1 ≤ i ≤ n . Variablene x i og y i kan være skalarer eller vektorer.

Ved å "justere" må vi forstå: bestemme lovens parametere, ( a 1 ,…, a m ), for å minimere S = || r i ||, med:

r i = y i - ƒ a 1 ,…, a m ( x i ). || ... || er en standard .

Vi bruker generelt den euklidiske normen, eller ℓ 2- normen  ; dette blir referert til som minste kvadratmetoden .

(Illustrasjoner hentet fra boken Beregning av usikkerheter ).

Generell tilnærming

Grunnlaget for tilnærmingen er identisk med lineær regresjon  : for et datasett ( x i , y i ) 1 ≤ i ≤ n , er S en funksjon av parametrene ( a j ) 1 ≤ j ≤ m . Hvis S er minimum, da

hvis disse derivatene eksisterer. Dette gir et system med n ligninger , generelt ikke-lineære, som ikke kan løses analytisk.

Merk at vi kan utføre en ikke-lineær regresjon på en lineær modell. For eksempel vet vi at normen ℓ 1 - | r i | - er mindre følsom for avvikere enn ℓ 2- normen . Men ligningssystemet vi oppnår er ikke lineært.

Løse algoritmer

Vi bruker iterative algoritmer:

Relaterte artikler


<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">