TV 2 ECHO

Pornonørder drev ny teknologi frem – og eksperter advarer om konsekvenserne

Den omdiskuterede videomanipuleringsteknologi deepfake har udviklet sig hurtigt. Rigtig hurtigt.

Du har måske set den. Videoen af den demokratiske politiker Nancy Pelosi, der mumler sig gennem et tv-interview.

Hun lyder næsten fuld. I hvert fald fra den.

Videoen blev set af flere millioner mennesker på Facebook og blev ifølge New York Times delt af præsident Trumps advokat Rudy Giuliani med ordene:

- Hvad er der galt med Nancy Pelosi? skrev han i tweetet, der siden er blevet slettet.

Det viste sig, at videoen var falsk. Og Pelosi-eksemplet står tilbage som et bevis på, hvor nemt det er at sprede falsk information gennem videoer.

Videoen var forfalsket med noget så simpelt som at sætte tempoet ned. Men der har i nogle år eksisteret en teknologi, der får den metode til at blegne, og som tech-eksperter og politikere frygter.

Deepfakes. En teknologi, der ved hjælp af kunstig intelligens gør det muligt at forfalske video-, lyd- og billedmateriale, så man kan lave videoer, hvor en person siger eller gør noget, de ikke har gjort eller sagt. Og i en stadig bedre kvalitet og med stadig mere tilgængelige værktøjer.

Den demokratiske formand for Repræsentanternes Hus, Nancy Pelosi, var i 2019 udsat for, at en falsk video af hende florerede på nettet.

Deepfakes er allerede blevet anerkendt som en skræmmende metode til spredning af misinformation. Og flere sociale medier har sat restriktioner på brugen af de forfalskede videoer. Senest Facebook, der forud for præsidentvalgkampen i USA vil forbyde videoer, der gør brug af teknologien.

I seng med Wonderwoman

Deepfake som begreb så dagens lys i 2017. Mediet Vice rapporterede om en pornovideo, der florerede på forummet Reddit. Den var blevet uploadet af en bruger, der kaldte sig Deepfakes, og det særlige ved den var, at der var et kendt ansigt i hovedrollen.

Nemlig den israelske skuespillerinde Gal Gadot.

BILLEDMANIPULATION: Dette billede stammer fra en af de falske pornovideoer, hvor skuespilleren Gal Gadots ansigt er redigeret ind.

Gal Gadot havde kun måneder forinden spillet 'Wonder Woman' i superheltefilmen af samme navn. Men hun havde aldrig medvirket i pornofilmen, der florerede på nettet.

Hendes ansigt var blevet sat ind i videoen ved hjælp af deepfake-teknologi.

Nu kunne verden nyde synet af en afklædt Wonder Woman uden at skulle fantasere sig gennem den stramme læderdragt, der havde forstyrret udsigten fra biografsædet.

Drevet frem af porno

Gal Gadot-videoen var ikke verdens første deepfake-video.

En gruppe forskere fra University of Washington havde tidligere på året offentliggjort en video, hvor de ifølge netmediet The Verge ved hjælp af kunstig intelligens havde manipuleret en video af Obama. De havde fået en nutidig Obama til at sige ting, han havde sagt i tidligere interviews.

Men de var forskere. Selvfølgelig kan de den slags. Hvad Gal Gadot-videoen viste var, at værktøjerne til at lave videoerne nu var tilgængelige på nettet. Og kunne bruges af alle med en vis computerteknisk forstand.

Videoen med Gal Gadot var ikke unik. Nettet svømmede i falsk porno med kendte kvinder i hovedrollerne.

Men det var først nu, at den brede offentlighed fik øje på, at der her var en teknologi, der først og fremmest misbrugte kvinders ansigter i seksuelle videoer. Men som også kunne være et særdeles effektivt våben til spredning af misinformation i det hele taget.

En af de kvindelige stjerner, der har været offer for 'deepfake'-porno, er Scarlett Johansson. Hun har til amerikanske medier sagt, at det er nytteløst at kæmpe mod falske pornovideoer.

Videoerne kom frem på et tidspunkt, hvor man talte om det postfaktuelle samfund, og hvor særligt den nyvalgte Donald Trump blev beskyldt for at have et lemfældigt forhold til fakta.

Fake news var en ting. Og på nettet blev deepfake-teknologien bedre og bedre.

Trussel for demokratiet

I starten af 2018 kom programmet Fakeapp ud på internettet, og nu var værktøjerne til at lave deepfakes derhjemme i stuerne for alvor landet. Flere større sociale medier kunne se, at der var seriøse risici ved deepfake-teknologien.

Allerede i månederne efter Gal Gadot-videoen begyndte Twitter, Pornhub og Reddit at sætte regler for brugen af deepfakes på deres platforme.

Også den republikanske senator Marco Rubio havde læst skriften på væggen. Under en officiel høring i det amerikanske senat i maj 2018 luftede han sin bekymring over deepfakes.

Hvad hvis der dukkede en deepfake op af en politiker, der tog imod bestikkelse, eller en amerikansk soldat der massakrerer civile, bemærkede senatoren og sagde:

- Jeg mener, at det her er den næste bølge af angreb mod USA og vestlige demokratier.

Den amerikanske senator Marco Rubio udtrykte i 2018 sin bekymring over 'deepfakes' under en høring i Senatet.

Det var altså særligt risikoen for, at deepfakes kunne bruges til at påvirke politik eller optrapninger af konflikter, der lå Marco Rubio på sinde.

I slutningen af 2018 var deepfakes blevet et bredt kendt fænomen. Primært i porno. Teknologien havde endnu ikke (så vidt vi ved) ligget til grund for politiske omstyrtninger.

Men så i december 2018 kom en præsident tilbage fra en længere ferie. Og han var ikke helt ved sine fulde fem.

Kupforsøget i Gabon

Noget virkede mistænkeligt.

Den afrikanske præsident mumlede lidt. Hans ene arm lå underligt død på bordet, og hans øjne opførte sig mærkværdigt.

Sådan opfattede flere personer i Gabon den video, som deres præsident Ali Bongo lagde op i 2018. Hans årlige nytårstale.

Gabons folk havde ikke set statsoverhovedet i de tre måneder, der var gået, siden han havde haft et slagtilfælde.

Måske kunne det være forklaringen på den anderledes fremtoning.

Men ifølge Politico begyndte lokale medier at mistænke videoen som en deepfake, hvilket resulterede i et forsøg på et militærkup en uge senere.

Under kupforsøget i Gabon trængte soldater ind på en national radiostation og opfordrede folket til at støtte dem i at afsætte præsident Ali Bongo.

Kuppet mislykkedes.

Der er stadig debat i Gabon om videoens ægthed.

Flere iagttagere mener, at Gabon-episoden er et eksempel på, at deepfake-teknologi ikke behøves at blive brugt for at have indflydelse. Selve bevidstheden om, at den eksisterer, ændrer gamet, har det siden lydt fra blandt andre Henry Ajder, researcher ved cybersikkerhedsfirmaet Deeptrace.

- Deepfakes udgør en trussel for politik, i og med at falske medier ser ægte ud, men lige nu er det en mere håndgribelig trussel, at idéen om deepfakes kan blive brugt til at få det ægte til at se falsk ud, har han sagt til tidsskriftet MIT Technology Review.

'Deepfakes' bliver flere

Og nu er vi så her. Det herrens år 2020. Der er præsidentvalg på vej i USA, og frygten, for at forfalskede videoer skal spille valgkampen et pus, er til at mærke.

Samtidig fortsætter internettet med at spytte deepfakes ud.

Allerede i oktober 2019 kom cybersikkerhedsfirmaet Deeptrace med en rapport over udbredelsen af deepfakes. Ifølge BBC viste rapporten, at antallet af deepfakes på nettet var fordoblet på ni måneder. Fra 7964 deepfakes i december 2018 til 14.698 i oktober samme år. 96 procent af de registrerede deepfakes var pornografiske.

Med en hurtig Youtube-søgning kan du se alt fra Nicholas Cage som Indiana Jones til komikeren Bill Hader, der morfer ind og ud af Tom Cruise.

'Deepfake'-pioner og professor ved University of Southern California Hao Li spår, at det snart vil være umuligt at spotte 'deepfakes' med det blotte øje.

Det lyder harmløst, men eksperter frygter, at spredningen af deepfakes kan have store konsekvenser.

Juraprofessor Danielle Citron har skrevet til Kongressen i USA i forbindelse med en høring om emnet, at deepfakes kan have ”eksplosive implikationer” for både enkeltpersoner og samfund.

- Under angreb er omdømme, politisk diskurs, valg, journalistik, national sikkerhed og sandhed som demokratiets byggesten, skrev hun.

Perfekte 'deepfakes' på vej

Der bliver arbejdet på højtryk for at udvikle teknologier, der kan gennemskue de falske videoer.

Men deepfake-spottere er overmatchede, lød meldingen fra professor i computerteknologi Hany Farid til Washington Post i sommeren 2019.

Samtidig bliver deepfake-videoerne kvalitetsmæssigt bedre og bedre.

Sidste år udtalte deepfake-pioneren Hao Li, at de falske videoer vil se ”fuldstændig ægte” ud inden for det næste halve til hele år.

Det sagde han til CNBC i september. For fem måneder siden.