Indholdsfortegnelse:
Definition - Hvad betyder AdaBoost?
AdaBoost er en type algoritme, der bruger en ensemble-læringsmetode til at vægte forskellige input. Det blev designet af Yoav Freund og Robert Schapire i det tidlige 21. århundrede. Det er nu blevet noget af en go-to-metode til forskellige former for boosting i maskinlæringsparadigmer.
Techopedia forklarer AdaBoost
Eksperter taler om AdaBoost som en af de bedst vægtede kombinationer af klassificeringsmaskiner - og en, der er følsom over for støj og befordrer for visse maskinlæringsresultater. Noget forvirring er resultatet af den virkelighed, at AdaBoost kan bruges i flere forekomster af den samme klassifikator med forskellige parametre - hvor fagfolk måske taler om, at AdaBoost "kun har en klassifikator" og bliver forvirret over, hvordan vægtning sker.
AdaBoost præsenterer også en bestemt filosofi inden for maskinlæring - som et ensemble-læringsværktøj går det ud fra den grundlæggende idé, at mange svage elever kan få bedre resultater end en stærkere læringsenhed. Med AdaBoost fremstiller maskinlæringseksperter ofte systemer, der indtager en række input og kombinerer dem for et optimeret resultat. Nogle tager denne idé i yderligere grad og taler om, hvordan AdaBoost kan kommandere "hære af beslutningsstubber", der i det væsentlige er mindre sofistikerede elever, der er ansat i stort antal for at knuse data, hvor denne fremgangsmåde ses positivt over brugen af en enkelt klassifikator.




