Q:
Hvorfor taler maskinlæringseksperter om Xavier-initialisering?
EN:Xavier-initialisering er en vigtig idé inden for konstruktion og træning af neurale netværk. Fagfolk taler om at bruge Xavier-initialisering for at styre varians og de måder, som signaler fremkommer gennem neurale netværkslag.
Xavier-initialisering er i det væsentlige en måde at sortere startvægte for individuelle input i en neuronmodel. Nettotilgangen til neuronet består af hvert individuelt input multipliceret med dets vægt, der fører ind i overførselsfunktionen og en tilknyttet aktiveringsfunktion. Tanken er, at ingeniører ønsker at styre disse indledende netværksvægte proaktivt for at sikre, at netværket konvergerer korrekt med passende varians på hvert niveau.
Gratis download: Machine Learning og Why It Matters |
Eksperter påpeger, at ingeniører til en vis grad kan bruge stokastisk gradientafstigning for at justere vægterne på inputene i træning, men at hvis de starter med forkert vægtning, kan de muligvis ikke konvergere korrekt, da neuroner kan blive mættede. En anden måde, som nogle fagfolk sætter dette på, er, at signaler kan "vokse" eller "skrumpe" for meget med forkert vægt, og det er derfor, folk bruger Xavier-initialisering i overensstemmelse med forskellige aktiveringsfunktioner.
En del af denne idé er relateret til begrænsningerne i håndteringen af systemer, der endnu ikke er udviklet: Før uddannelse arbejder ingeniører på nogle måder i mørke. De kender ikke dataene, så hvordan ved de, hvordan de skal vægte de indledende input?
Af den grund er Xavier-initialisering et populært samtaleemne i programmering af blogs og fora, da fagfolk spørger, hvordan man anvender det på forskellige platforme, for eksempel TensorFlow. Disse typer teknikker er en del af raffinering af maskinlæring og kunstig intelligens design, der har store indvirkninger på fremskridt på forbrugermarkeder og andre steder.