Q:
Hvorfor overvejer nogle virksomheder at tilføje "human feedback-kontroller" til moderne AI-systemer?
EN:Nogle virksomheder, der arbejder med avanceret AI-teknologi, arbejder på at etablere menneskelige kontroller for disse systemer, hvilket giver maskinlæring og dyb læringsværktøjer noget direkte menneskeligt tilsyn. Disse virksomheder er heller ikke små aktører - Googles DeepMind og Elon Musks OpenAI er to eksempler på store virksomheder, der får fat på teknologiske fremskridt. Med det i tankerne er resultaterne forskellige - for eksempel har DeepMind været genstand for kontrovers for sin opfattede manglende vilje til at levere nøgledata til offentligheden, mens OpenAI er meget mere, vel, åben om sit arbejde med at kontrollere kunstig intelligens.
Selv sådanne notabler som Bill Gates har tænkt på spørgsmålet, og Gates sagde, at han er en af mange, der er bekymret for fremkomsten af en kunstig superintelligens, der på nogle måder kan bevæge sig ud over menneskelig kontrol. Musk har på sin side også fremsat et alarmerende sprog om muligheden for ”rogue AI.”
Det er sandsynligvis den mest presserende årsag til, at virksomheder arbejder på at anvende menneskelige kontroller på AI - tanken om, at en vis teknologisk entualitet vil resultere i en super-kraftig, sentient teknologi, som mennesker simpelthen ikke kan kontrollere mere. Lige siden morgenens menneskelige ambitioner har vi sat værktøjer på plads for at sikre, at vi kan kontrollere de kræfter, som vi udøver - hvad enten det er heste med tøjler og seler, elektricitet i isolerede ledninger eller enhver anden form for kontrolmekanisme, der har kontrol er en medfødt menneskelig funktion, og så det giver al den mening i verden, at når kunstig intelligens kommer tættere på reel funktionalitet, anvender mennesker deres egne direkte kontroller for at holde denne magt i skak.
Frygt for super-intelligente robotter er imidlertid ikke den eneste grund til, at virksomheder anvender menneskelige kontroller til maskinindlæring og AI-projekter. En anden væsentlig årsag er maskinforstyrrelse - dette er tanken om, at kunstige intelligenssystemer ofte er begrænsede i, hvordan de evaluerer de pågældende data - så de forstærker enhver bias, der ligger i systemet. De fleste fagfolk, der beskæftiger sig med maskinlæring, kan fortælle horrorhistorier om it-systemer, der ikke var i stand til at behandle menneskelige brugergrupper - uanset om det var køn eller etnisk forskel, eller en anden fiasko i systemet til virkelig at forstå nuancerne i vores menneskelige samfund og hvordan vi interagerer med mennesker.
På en måde kan vi sætte menneskelige kontroller på systemer, fordi vi er bange for, at de måske er for magtfulde - eller skiftevis, fordi vi er bange for, at de måske ikke er magtfulde nok. Menneskelige kontroller hjælper med at målrette datasæt til maskinlæring for at give mere præcision. De hjælper med at forstærke ideer, som computeren bare ikke kan lære af sig selv, enten fordi modellen ikke er sofistikeret nok, fordi AI ikke er kommet langt langt nok, eller fordi nogle ting bare ligger i provinsen med menneskelig erkendelse. Kunstig intelligens er fantastisk til nogle ting - for eksempel tillader et belønning-og-score-baseret system en kunstig intelligens at slå en menneskelig spiller på det utroligt komplekse brætspil "Go" - men for andre ting er dette incitamentbaserede system helt utilstrækkelig.
Kort sagt er der adskillige tvingende grunde til at holde menneskelige brugere direkte involveret i, hvordan kunstig intelligens-projekter fungerer. Selv de bedste teknologier til kunstig intelligens kan tænke meget på egen hånd - men uden en faktisk biologisk menneskelig hjerne, der kan behandle ting som følelser og sociale former, kan de simpelthen ikke se det store billede på en menneskelig måde.
En dygtig maskinlæringsvirksomhed kan hjælpe med at finde denne balance med en blanding af forretningseksperter og fageksperter og maskinlæringsudviklere med evnerne til at løse store forretningsproblemer.