Du kan dele din kunnskap ved å forbedre den ( hvordan? ) I henhold til anbefalingene fra de tilsvarende prosjektene .
Se listen over oppgaver som skal utføres på diskusjonssiden .
ØkerUnderklasse | Metaheuristisk |
---|---|
Aspekt av | Veiledet læring |
Den øker er et felt av maskinlæring (gren av kunstig intelligens ). Det er et prinsipp som samler mange algoritmer som er basert på sett med binære klassifikatorer: boosting optimaliserer ytelsen.
Prinsippet kommer fra kombinasjonen av klassifikatorer (også kalt hypoteser). Ved suksessive iterasjoner blir kunnskapen om en svak klassifikator - svak klassifiserende - lagt til den endelige klassifisereren - sterk klassifikator .
Vi kaller svake lærere en algoritme som gir svake klassifikatorer som er i stand til å gjenkjenne to klasser minst like godt som tilfeldighetene ville gjort (det vil si at det ikke er feil mer enn en gang i to, hvis fordelingen av klassene er balansert). Klassifikatoren som er gitt er vektet av kvaliteten på klassifiseringen: jo bedre den klassifiseres, desto viktigere blir den. Feil klassifiserte eksempler styrkes slik at de får større betydning overfor den svake eleven i neste runde, slik at de gjør opp for mangelen.
En av de mest brukte algoritmene i boosting kalles AdaBoost , kort for adaptiv boosting .
Økningen er basert på CAP-læringsteorien .
Adaboost-metoden kan sees på som et spesielt tilfelle av multiplikativ vektmetode .