Q:
Hvorfor er grafikbehandlingsenheder (GPU'er) vigtige for dyb læring?
EN:Brugen af grafikbehandlingsenheder (GPU'er) har særlig betydning for området dyb læring. Årsagen har at gøre med, hvordan dybe læringssystemer er oprettet, og hvad de er beregnet til at gøre.
Eksperter definerer dyb læring som en type maskinlæring, hvor algoritmer bruger flere lag til progressiv dataanalyse.
Nogle nævner særlige eksempler, såsom indviklede neurale netværk (CNN) med deres forskellige lag, der involverer maksimal pooling, filtrering, polstring, skridt og andre opgaver.
I en bredere forstand er ting som billedbehandling og naturlig sprogbehandling afhængige af flertrinsprocedurer i flere algoritmer, hvoraf mange ligner de neurale netværk, som professionelle i maskinlæring lærer at identificere og analysere.
Som vi har bemærket i en tidligere artikel, værdsættes GPU'er generelt i maskinlæring på grund af deres parallelle behandlingsevne. Efterhånden som maskinindlæringen skred frem, udviklede hardwareverdenen sig også fra ideen om en individuel stærk CPU-kerne til flere enheder med parallelbehandling, der hurtigere kan håndtere store mængder beregningsarbejde.
Med dybe læringssystemer, der omfatter generative modeller på højere niveau, såsom deep belief-netværk, Boltzmann-maskiner og ekko-tilstandssystemer, er der et specifikt behov for parallel behandling og specialiseret kernedesign. Man kan sige, at brugen af GPU'er svarer til brugen af avancerede RISC-maskiner i nogle andre former for behandling - at tilpasning af chips til en bestemt anvendelse giver en god mening.
Ud over brugen af GPU'er til dyb læring ser du også, at de samme typer processorer bliver populære i bevægelser hen imod en grundlæggende ændring i computerstruktur kendt som kvantecomputering.
Også her er det kompleksiteten og rækkefølgen af computerkraft, der kræver parallel behandlingskapacitet. Ved kvanteberegning erstattes traditionelle bit med qubits, der kan have en værdi på 1, 0 eller en uspecificeret kombination. Denne form for "Schroedinger's bit" danner grundlaget for en computermodel, der kan vende IT-verdenen til hovedet.
For dem, der er interesseret i nye teknologier, vil det være nøglen til at se brugen af GPU'er og deres efterfølgere i sådanne systemer som dyb læringsnetværk og opsætning af kvantecomputere. Begge disse, siger mange eksperter, er i deres barndom og vil modne og bringe resultater i de kommende år.