Q:
Hvordan kan ingeniører bruge gradient boosting til at forbedre maskinlæringssystemer?
EN:Som andre former for boosting søger gradient boosting at omdanne flere svage elever til en enkelt stærk lærer i en slags digital "crowddsourcing" af indlæringspotentiale. En anden måde, som nogle forklarer gradient boosting, er, at ingeniører tilføjer variabler for at finjustere en vag ligning for at producere mere præcise resultater.
Gradient boosting beskrives også som en "iterativ" tilgang, hvor iterationerne muligvis er karakteriseret som tilføjelsen af individuelle svage elever til en enkelt stærk elevmodel.
Gratis download: Machine Learning og Why It Matters |
Her er en overbevisende beskrivelse af, hvordan man ser på en type gradientforstærkende implementering, der forbedrer maskinlæringsresultater:
Systemadministratorerne opsatte først et sæt svage elever. Tænk på dem, for eksempel som en række enheder AF, som hver sad rundt om et virtuelt bord og arbejdede med et problem, for eksempel binær billedklassificering.
I ovenstående eksempel vil ingeniørerne først vægte hver svage elev, muligvis vilkårligt, tildele et indflydelsesniveau til A, B, C osv.
Dernæst kører programmet et givet sæt træningsbilleder. Givet resultaterne, vil det derefter vægte arrayet af svage elever på ny. Hvis A gætte meget bedre end B og C, vil A's indflydelse hæves i overensstemmelse hermed.
I denne forenklede beskrivelse af en boosting af algoritmeforbedringer er det relativt let at se, hvordan den mere komplekse tilgang giver forbedrede resultater. De svage elever "tænker sammen" og optimerer igen et ML-problem.
Som et resultat kan ingeniører bruge "ensemble" -tilgangen til gradient boosting i næsten enhver form for ML-projekt, fra billedgenkendelse til klassificering af brugeranbefalinger eller analyse af naturligt sprog. Det er hovedsageligt en "holdånd" -tilgang til ML, og en, der får meget opmærksomhed fra nogle magtfulde spillere.
Gradvis boosting fungerer især ofte med en differentierbar tabsfunktion.
I en anden model, der bruges til at forklare gradient boosting, er en anden funktion af denne form for boosting at være i stand til at isolere klassifikationer eller variabler, der i et større billede bare er støj. Ved at adskille hver variables regressionstræ eller datastruktur i domænet for en svag lærer, kan ingeniører opbygge modeller, der mere nøjagtigt "lyder ud" støjtegnere. Med andre ord, signifikatoren, der er dækket af den uheldige svage lærer, vil blive marginaliseret, da den svage lærer genvægtes nedad og får mindre indflydelse.