Indholdsfortegnelse:
Definition - Hvad betyder Bagging?
"Bagging" eller bootstrap-aggregering er en bestemt type maskinlæringsproces, der bruger ensemble-læring til at udvikle maskinlæringsmodeller. Grundlæggende i 1990'erne bruger denne teknik specifikke grupper af træningssæt, hvor nogle observationer kan gentages mellem forskellige træningssæt.
Techopedia forklarer Bagging
Ideen om posning er blevet brugt i vid udstrækning i maskinlæring for at skabe bedre montering til modeller. Ideen er, at hvis du tager flere uafhængige maskinindlæringsenheder, kan de fungere samlet bedre end en enhed, der ville have flere ressourcer.
For virkelig at illustrere, hvordan dette fungerer, skal du tænke på hver del af sækningsprocessen som en individuel hjerne. Uden bagage ville maskinlæring bestå af en rigtig smart hjerne, der arbejder med et problem. Ved bagging består processen af mange "svage hjerner" eller mindre stærke hjerner, der samarbejder om et projekt. De har hver deres tankegang, og nogle af disse domæner overlapper hinanden. Når du sætter det endelige resultat sammen, er det meget mere udviklet end det ville være med kun en "hjerne."
I en meget reel forstand kan filosofien om posning beskrives ved en meget gammel aksiom, der foregår inden for teknologi i ganske mange år: "to hoveder er bedre end et." I sækning er 10 eller 20 eller 50 hoveder bedre end et, fordi resultaterne tages helt og samlet til et bedre resultat. Bagging er en teknik, der kan hjælpe ingeniører til at bekæmpe fænomenet "overfitting" i maskinlæring, hvor systemet ikke passer til dataene eller formålet.
