Øker

Denne artikkelen er et grovt utkast til sannsynlighet og statistikk .

Du kan dele din kunnskap ved å forbedre den ( hvordan? ) I henhold til anbefalingene fra de tilsvarende prosjektene .

Se listen over oppgaver som skal utføres på diskusjonssiden .

Øker
Underklasse Metaheuristisk
Aspekt av Veiledet læring

Den øker er et felt av maskinlæring (gren av kunstig intelligens ). Det er et prinsipp som samler mange algoritmer som er basert på sett med binære klassifikatorer: boosting optimaliserer ytelsen.

Prinsippet kommer fra kombinasjonen av klassifikatorer (også kalt hypoteser). Ved suksessive iterasjoner blir kunnskapen om en svak klassifikator - svak klassifiserende - lagt til den endelige klassifisereren - sterk klassifikator .

Vi kaller svake lærere en algoritme som gir svake klassifikatorer som er i stand til å gjenkjenne to klasser minst like godt som tilfeldighetene ville gjort (det vil si at det ikke er feil mer enn en gang i to, hvis fordelingen av klassene er balansert). Klassifikatoren som er gitt er vektet av kvaliteten på klassifiseringen: jo bedre den klassifiseres, desto viktigere blir den. Feil klassifiserte eksempler styrkes slik at de får større betydning overfor den svake eleven i neste runde, slik at de gjør opp for mangelen.

En av de mest brukte algoritmene i boosting kalles AdaBoost , kort for adaptiv boosting .

Økningen er basert på CAP-læringsteorien .

Hovedmetoder relatert til boosting

Adaboost-metoden kan sees på som et spesielt tilfelle av multiplikativ vektmetode .

Andre relaterte metoder

Tilkoblinger