Q:
Hvorfor siger nogle eksperter, at AI vil "ødelægge digital ægthed"?
EN:Maskinindlæring og kunstig intelligens ændrer hurtigt mange industrier og omformer virkelig de måder, vi tænker på teknologisk fremgang. Men de engagerer også nogle interessante dikotomier og modsigelser med hensyn til, hvordan vi forholder os til vores computere og smartphone-enheder eller andre nye grænseflader, der tilfældigvis følger med.
Et af de store spørgsmål med kunstig intelligens er, hvordan det vil påvirke "ægthed" - eller hvordan folk verificerer og bekræfter den virkelighed, der findes, i "kødområdet" eller i den digitale verden. Når du virkelig undersøger hvordan dette fungerer, ser du en iboende modsætning mellem begrænsningerne i vores teknologi og de måder, vi stoler på teknologien til vores rådighed.
Et af de bedste eksempler kan findes i en nylig Wired-artikel, der viser, hvordan personer med kunstig intelligens og maskinindlæringsressourcer er i stand til at tage et billede af en hest i bevægelse og overlejre zebra striber i en proces, som forfatteren kalder "zebrafication."
Det er pænt og nyt, men det kan også potentielt give et problem. Når du ser en zebra på en digital skærm, hvordan ved du det, at det er en zebra, og ikke kun en hest med zebra striber, der klogt placeres på den af en teknisk-dygtig person?
Det kan virke som et teoretisk spørgsmål, men de samme slags spørgsmål kommer snart til at gælde for de nyheder, vi får i digital form - fra politik til økonomi til religion, alt sammen kommer til at stole på vores evne til at sile gennem information, for at tjekke og skelne mellem sandhed og fiktion, mellem myte og virkelighed. Efterhånden som nye kunstige intelligensværktøjer tilbyder flere måder at manipulere billede og video på, bliver dette meget vanskeligere.
Et andet glimrende eksempel er nye stemmeteknologier. I en artikel for et par år siden dækkede vi et spirende IT-projekt, der tog stemmer fra berømte mennesker og byggede stemmemodelmotorer, der kunne få disse berømte mennesker til at sige alt fra bortset fra graven.
Igen er dette pæn og interessant teknologi - det ser ud som en sjov måde at bruge talebehandlingsteknologier på. Men det kommer virkelig til at give et problem, når vi skifter fra gammel analog og uokumenteret digital stemmeteknologi til ny syntetisk og præfabrikeret stemme. Hvordan vil du vide, hvem der taler til dig - på telefon, tv eller lige i øret?
Specifikt kan ideen om at ændre lyd, billede og video på sofistikerede måder forstærke nogle af vores mest værdsatte ideer som samfund. Hvordan vil folk stole på det, de hører og ser i den politiske verden? Hvad med loven - vil de anklagede for forbrydelser have nye typer appeller baseret på den potentielle ændring af bevismaterialet?
En anden måde at forstå nogle af disse problemer på er at se på science-fiction-skrivning - fra Ray Bradbury's "Fahrenheit 451" til George Orwells "1984" og videre har fortællerne fra tidligere tidsalder gentagne gange advaret os om, at teknologi kunne bruges til både nyttige og problematiske ender. En af grundene til, at så mange eksperter og chefer for it-virksomheder kræver “forklarbar kunstig intelligens” og etiske paneler, er at de forstår problemet - at hvis vi ikke kontrollerer teknologier grundigt, vil vi ikke være i stand til at stole på dem over for nogen grad. I stedet for at hjælpe os med at nå vores mål, kan de ende med at skade os, delvis ved at forårsage den slags sociale kaos, der findes, når vi ikke rigtig kan få fat på sandheden og virkeligheden. En del af den gode nyhed er dog, at teknologier som blockchain, der giver transaktionsgodkendelse, kan hjælpe, når de anvendes til digitale poster.
