TV 2 ECHO

Her er tre grunde til at frygte 'deepfakes'

'Deepfake'-teknologien bliver bedre og mere tilgængelig. Hvad giver det af problemer og fordele?

Det gik lynende stærkt.

Fra deepfakede pornovideoer dukkede op i 2017 og til i dag, hvor videomanipulerings-teknologien i de bedste tilfælde er blevet så god, at det er noget nær umuligt at kende falsk fra sandt. Og i øvrigt kan bruges helt gratis af alle med en vis computerteknisk forstand.

Flere iagttagere har advaret mod, at deepfakes kan tage fake news til helt nye højder. Teknologien bliver brugt mere og mere, men hvorfor skal vi egentlig frygte de manipulerede videoer?

Her er tre grunde.

1. Tvivl om videobeviser

Forestil dig, at du har stjålet en bil ved Rådhuspladsen i København. Nu sidder du i retssalen og ser anklageren vise en video, der placerer dig på Rådshuspladsen på gerningstidspunktet. Det ser skidt ud.

Men nu hiver du så en video frem, der placerer dig på en strand på Bali på præcis det samme tidspunkt. Hvilket bevis tæller, hvis ingen af videoerne kan affærdiges som falske?

Hvad er deepfakes?

Deepfakes er video- eller billedmateriale, der er manipuleret, så det forestiller situationer, der aldrig har fundet sted.

Ofte er det videdoer, hvor en persons ansigt er byttet ud med en andens. Det er ofte set i porno, hvor en kvindes ansigt er blevet sat på en pornoskuespillers krop, så det ser ægte ud.

Deepfakes laves ved hjælp af maskinlæring. En kunstig intelligens, der gør en computer i stand til at lære af sig selv. 

Det grundlæggende problem, som deepfakes stiller os med, er, at vi i bund og grund ikke længere kan stole på videoer. Det mener Anders Kofod-Petersen, vicedirektør ved Alexandra Instituttet og professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet. Og det stiller blandt andet retssystemet med nogle udfordringer.

For video- og billedmateriale kan miste sin bevismæssige værdi, fordi det potentielt kan være forfalsket.

- Så længe man ikke kan give en vandtæt garanti på, at en given video er sandfærdig, vil man kunne sætte spørgsmålstegn ved den, siger han.

2. Alle kan være karaktermordere

Deepfakes er indtil nu primært blevet brugt i porno. Kendte kvinders ansigter er blevet placeret på pornostjerners kroppe.

Men efterhånden som teknologien bliver mere udbredt og kan betjenes af flere, kan vi se flere personer blive ofre for deepfakes.

Hvis du står i en situation og tænker, at du gerne vil udskamme en person, så er 'deepfake' jo en våd drøm

Anders Kofod-Petersen, professor i kunstig intelligens

Hævnporno er i forvejen et stort problem. Men deepfakes gør det muligt for personer med skumle hensigter at lave hævnporno med hvem som helst. Også personer de aldrig har mødt.

Og netop risikoen for, at deepfakes bliver brugt som et våben til at skade folks omdømme, er grund til bekymring, mener Anders Kofod-Petersen.

- Hvis du står i en situation og tænker, at du gerne vil udskamme en person, så er deepfake jo en våd drøm, siger han.

3. Spredning af misinformation

Vi har endnu ikke set seriøse forsøg på at sprede misinformation i den danske offentlighed med deepfake-teknologi. I hvert fald ikke, hvad vi ved af.

Men værktøjerne til at lave deepfakes er ved at være så gode, at risikoen er der. Deepfakes kan bruges til at få hvem som helst til at sige hvad som helst.

Det udgør i sig selv en risiko for spredning af propaganda. Men ifølge Anders Kofod-Petersen er selve eksistensen af deepfakes nok til at ryste det hele. For det vil være muligt at påstå, at al falsk er ægte, og at affærdige alt ægte som falsk. Og hvis først et falsum har set dagens lys, kan skaden være sket, siger Anders Kofod-Petersen.

- Hvis man ønsker at påvirke et udfald af et valg, så kan bare det at skabe en deepfake, velvidende at den vil blive afsløret som en fake, have en effekt, fordi skaden allerede er sket. Det er måske faktisk det farligste ved det, siger han.

...men ikke alt er skidt

Deepfake-teknologi kan bruges i film, så skuespillere kan optræde i film længe efter deres død.

Og du har allerede set et eksempel på det, hvis du har set Star Wars-filmen 'Roque One'. Det skal lige siges, at der her teknisk set ikke er brugt samme teknologi som i deepfakes, men god, gammeldags CGI. Principielt er effekten dog den samme.

For i Star Wars-filmen optrådte skuespilleren Peter Cushing, selvom han døde tilbage i 1994. Også Carrie Fischer, der spillede prinsesse Leia, blev i de seneste Star Wars-film gjort yngre med CGI. Så er der selvfølgelig diskussionen om etikken i at vække folk til live uden deres samtykke.

Selvom der er grund til bekymring over deepfakes, mener Anders Kofod-Petersen, at man også kan glæde sig over den bagvedliggende teknologi.

For maskinlæring, som det hedder, gør blandt andet, at man kan få computere til at læse tekst højt på en måde, der passer det individuelle menneske. Altså i en dialekt eller med en intonation, der er tilpasset præcist, hvordan den enkelte opfatter information bedst.

Man kan også få computere til at læse tekster og forstå dem og formidle dem videre på et sprogligt niveau, der passer til den enkelte. En computer kan altså for eksempel sættes til at læse hele din lejekontrakt med alle de paragraffer, du ikke forstår, og omformulere teksten, så den giver mening for dig. På den måde gøres viden mere tilgængeligt for alle, mener professoren.

- Det tillader os at manipulere positivt. At manipulere, så det er tilgængeligt for flest mulige mennesker. Det kan kun være godt, siger Anders Kofod-Petersen.