Q:
Hvorfor køber virksomheder GPU'er til maskinlæring?
EN:Hvis du læser om maskinlæring, hører du sandsynligvis meget om brugen af grafikbehandlingsenheder eller GPU'er i maskinlæringsprojekter, ofte som et alternativ til centrale behandlingsenheder eller CPU'er. GPU'er bruges til maskinlæring på grund af specifikke egenskaber, der gør dem bedre tilpasset maskinindlæringsprojekter, især dem, der kræver en masse parallel behandling, eller med andre ord, samtidig behandling af flere tråde.
Gratis download: Machine Learning og Why It Matters |
Der er mange måder at tale om, hvorfor GPU'er er blevet ønskelige til maskinlæring. En af de enkleste måder er at kontrastere det lille antal kerner i en traditionel CPU med meget større antal kerner i en typisk GPU. GPU'er blev udviklet til at forbedre grafik og animation, men er også nyttige til andre former for parallelbehandling - blandt dem maskinlæring. Eksperter påpeger, at selv om de mange kerner (sommetider dusinvis) i en typisk GPU har en tendens til at være enklere end de færre kerner på en CPU, fører et større antal kerner til en bedre parallel processorkapacitet. Dette stemmer overens med den lignende idé om ”ensemble-læring”, der diversificerer den faktiske læring, der foregår i et ML-projekt: Den grundlæggende idé er, at større antal svagere operatører overgår mindre antal stærkere operatører.
Nogle eksperter vil tale om, hvordan GPU'er forbedrer gennemstrømning af flydende punkter eller bruger dyseoverflader effektivt, eller hvordan de kan rumme hundreder af samtidige tråde under behandling. De kan måske tale om benchmarks for dataparallelisme og grenafvigelse og andre typer arbejde, som algoritmer gør understøttet af parallelle behandlingsresultater.
En anden måde at se på den populære brug af GPU'er i maskinlæring er at se på specifikke maskinlæringsopgaver.
Grundlæggende er billedbehandling blevet en vigtig del af nutidens maskinindlæringsindustri. Det skyldes, at maskinindlæring er velegnet til at behandle de mange typer funktioner og pixelkombinationer, der udgør billedklassificeringsdatasæt, og hjælper maskinen med at træne til at genkende mennesker eller dyr (dvs. katte) eller genstande i et visuelt felt. Det er ikke tilfældigt, at CPU'er blev designet til animationsbehandling og nu ofte bruges til billedbehandling. I stedet for at gengive grafik og animation bruges de samme multitrådede mikroprocessorer med høj kapacitet til at evaluere grafikken og animationen for at komme med nyttige resultater. Det vil sige, i stedet for blot at vise billeder, “ser computeren” billeder - men begge disse opgaver fungerer på de samme visuelle felter og meget ens datasæt.
Med det i tankerne er det let at se, hvorfor virksomheder bruger GPU'er (og værktøjer på næste niveau som GPGPU'er) til at gøre mere med maskinlæring og kunstig intelligens.