Hjem Udvikling Hvorfor er maskinforsyning et problem i maskinlæring?

Hvorfor er maskinforsyning et problem i maskinlæring?

Anonim

Q:

Hvorfor er maskinforsyning et problem i maskinlæring?

EN:

Dette spørgsmål kan besvares på to forskellige måder. For det første, hvorfor er maskinstabilitet problem, som i, hvorfor eksisterer det i maskinlæringsprocesser?

Maskinlæring, skønt sofistikeret og kompleks, er i et omfang begrænset baseret på de datasæt, den bruger. Konstruktionen af ​​datasættene involverer iboende bias. Ligesom i medierne, hvor undladelser og bevidste valg af inkludering kan vise en bestemt bias, i maskinlæring, skal de datasæt, der bruges, undersøges for at bestemme, hvilken slags bias der findes.

Gratis download: Machine Learning og Why It Matters

For eksempel er det et almindeligt problem for teknologitestning og designprocesser at vise en præference for en brugertype frem for en anden. Et stort eksempel er kønsforskellene i den tekniske verden.

Hvorfor gør dette en forskel, og hvorfor gælder det for maskinlæring?

Fordi mangel på eksisterende hunner i et testmiljø kan føre til en produceret teknologi, der er mindre brugervenlig for et kvindeligt publikum. Den måde, som nogle eksperter beskriver, er, at uden den nuværende kvindelige test, kan slutproduktet muligvis ikke genkende input fra kvindelige brugere - det har muligvis ikke værktøjer til at genkende kvindelige identiteter eller til at håndtere input fra kvinder på passende måde.

Det samme gælder for forskellige etniske grupper, mennesker af forskellige religioner eller enhver anden type demografiske. Uden de rigtige data fungerer maskinlæringsalgoritmerne ikke korrekt for et givet brugersæt, så data om inkludering bevidst skal tilføjes til teknologien. I stedet for bare at tage primære datasæt og forstærke iboende bias, er menneskelige handlere nødt til virkelig at se på problemet.

Et andet eksempel er en maskinlæringsmotor, der tager job- og lønoplysninger og spytter resultater. Hvis det iboende datasæt ikke analyseres, forstærker maskinen biasen. Hvis den opfatter, at mænd besidder langt de fleste ledende job, og maskinlæringsprocessen involverer filtrering gennem det rå datasæt og returnerer tilsvarende resultater, vil det returnere resultater, der viser en mandlig bias.

Den anden del af spørgsmålet involverer, hvorfor denne bias er så skadelig. Uden tilstrækkelig overvågning og test kan nye teknologier skade, ikke hjælpe, vores følelse af inkludering og lighed. Hvis et nyt tech-produkt rulles ud, der genkender ansigter med lysere hud, men ikke mørkere hud, kan det føre til eskalerede etniske spændinger og følelsen af, at det pågældende firma ikke er følsomt over for mangfoldighed. Hvis en maskinlæringsalgoritme gengiver og øger bias i datasættene, vil den kunstige intelligens tilføje sin stemme til de menneskelige stemmer og menneskelige tendenser, der allerede findes i det sociale system, der favoriserer en gruppe mennesker frem for en anden.

Den bedste måde at tackle dette på er at se nøje på de underliggende datasæt, bruge valg af funktion, tilføje variabelt input og manipulere de rå datasæt i sig selv og øge den virkelige magt i maskinlæring med bevidst menneskelig udformning af data for at få en resultat, der leverer stor analytisk kraft, men også nogle af de menneskelige indsigter, som computere endnu ikke kan replikere.

Hvorfor er maskinforsyning et problem i maskinlæring?