Falsk porno kan være første skridt mod ny type af falske nyheder og propaganda

Internetbrugere har fundet en troværdig måde at lave falsk porno, men teknologien åbner også for en ny bølge af propaganda og falske nyheder.

På internettet findes der videoklip med filmstjerner som Scarlett Johansson, Megan Fox og Emma Watson, der dyrker sex eller bader nøgne.

Men filmene er ikke ægte.

Det åbner potentielt for, at man kan få hvem som helst til at sige hvad som helst

Anders Kofod-Petersen, vicedirektør i Alexandra Instituttet og professor i kunstig intelligens

De er skabt ved, at kendte kvinders ansigter er blevet animeret ind på pornoskuespilleres kroppe.

Bag videoerne står internetbrugere, der har udviklet værktøjer til at lave såkaldt 'faceswap-porno', og de er blevet så gode til det, at flere af videoerne virker meget troværdige. Det skriver teknologimediet Motherboard.

- Alle er nødt til at forstå, hvor nemt det er at forfalske billeder og videoer til en grad, hvor vi om nogle få måneder fra nu ikke vil være i stand til at identificere forfalskningerne, siger Alex Champandard, der er ekspert i kunstig intelligens, til Motherboard.

Billedet herunder er fra en af videoerne, hvor modellen og skuespilleren Gal Gadot fra 'Wonder Woman' er redigeret ind i en pornofilm:

BILLEDMANIPULATION: Dette billede stammer fra en af de falske pornovideoer, hvor skuespilleren Gal Gadots ansigt er redigeret ind.
BILLEDMANIPULATION: Dette billede stammer fra en af de falske pornovideoer, hvor skuespilleren Gal Gadots ansigt er redigeret ind. Foto: Screenshot

Teknologien er ikke ukendt og har tidligere været benyttet i store Hollywood-produktioner. For eksempel gjorde den det muligt at vække den afdøde skuespiller Paul Walker til live i filmen ’Fast & Furious 7’ og at indspille scener med en ung udgave af Carrie Fisher i ‘Star Wars: Rogue One’. 

Men når teknologien ikke længere er forbeholdt filmbranchens dygtigste folk og store Hollywood-budgetter, åbner det op for nogle bekymrende scenarier.

Et spørgsmål om tid

Fænomenet greb om sig sidste år, efter en bruger på debatforummet Reddit opfandt en algoritme, der gjorde det nemmere at lave troværdigt 'kendisporno' ved hjælp af maskinlæringsteknologi.

Siden har andre arbejdet videre på teknologien, og en anden Reddit-bruger har lavet et gratis program, som skal være muligt at benytte selv for folk, der ikke er computergenier.

BILLEDMANIPULATION: Her er det den engelske skuespiller Daisy Ridley, der er blevet redigeret ind i en pornofilm. Hun er nok er mest kendt for sin rolle som Rey i de nyeste 'Star Wars'-film.
BILLEDMANIPULATION: Her er det den engelske skuespiller Daisy Ridley, der er blevet redigeret ind i en pornofilm. Hun er nok er mest kendt for sin rolle som Rey i de nyeste 'Star Wars'-film. Foto: Screenshot

Ikke alle de falske pornovideoer med Hollywood-stjernerne er lige overbevisende, og flere er slørede og mærkelige i ansigterne. Men nettet flyder lige nu med falsk kendisporno, og vi bør indstille os på, at der kan komme en bredere bølge af falske videoer i omløb, i takt med at teknologien bliver bedre og nemmere at bruge.

Det vurderer Anders Kofod-Petersen, der er vicedirektør i Alexandra Instituttet i Aarhus og professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet i Trondheim, der er førende inden for kunstig intelligens og maskinlæring.

- Det åbner potentielt for, at man kan få hvem som helst til at sige hvad som helst. Der vil altid komme nogen, der sætter elementerne sammen til programmer, som alle kan hente ned og bruge. Det er bare et spørgsmål om tid, siger han til TV 2.

Svært at afkode for hr. og fru Jensen

De seneste år har adskillige unge oplevet at blive udsat for hævnporno eller deling af private billeder og videoer. Men med de teknologiske fremskridt kan man altså ikke udelukke, at ondsindede personer i fremtiden kan producere deres egen hævnporno.

På samme måde kan den bruges til at sætte eksempelvis politikere i kompromitterende situationer eller til at understøtte propaganda og falske nyheder.

- Teknologien har stadig svært ved at rekonstruere mimik og mere komplicerede bevægelser. Men noget mere trivielt som en stillesiddende nyhedsoplæser på TV 2 eller statsministerens nytårstale varer det formentligt ikke længe, før man kan forfalske, siger Anders Kofod-Petersen.

- Så vil vi kunne bygge en video, hvor Lars Løkke Rasmussen siger noget kontroversielt, og for hr. og fru Jensen er det tæt på umuligt at afgøre, om det er ægte, eller noget vi har bygget.

Forskere lavede falsk Obama

Sidste år lykkedes det forskere på University of Washington i USA at udvikle en falsk Barack Obama, hvor de brugte kunstig intelligens til at lave en model af præsidentens mund, så de kunne få ham til at sige hvad som helst.

Den britiske tv-kanal BBC spurgte dengang en af forskerne, professor Ira Kemelmacher-Schlizerman, om man skulle være bange for, at teknologien kunne blive misbrugt. Hertil svarede hun:

- Vi udvikler teknologi, og al teknologi kan bruges på en negativ måde, så vi bør alle arbejde for at sikre, at det ikke sker. Og en af mulighederne er, at når først du ved, hvordan du laver noget, så ved du også, hvordan du kan omvende processen, så man kan lave måder at identificere redigerede videoer fra sande videoer.

Ekspert: Hold fokus på kilden – ikke indholdet

Nogle af de falske pornovideoer har allerede fundet vej til pornohjemmesider, hvor de promoveres som den ægte vare.

Det er en af de store problemer ved falske nyheder, billeder eller videoer. De spredes hurtigt og bredt, og det bliver svært at opspore kilden, forklarer lektor Anja Bechmann fra Aarhus Universitet. Hun er en af to danske forskere, der sidste år blev udpeget til en arbejdsgruppe, der skal rådgive EU-kommissionen om, hvordan den kan modvirke falske nyheder og spredning af disinformation på nettet.

- Billeder opfattes som tættere på virkeligheden end det skrevne ord, så de får stor opmærksomhed, og derfor kan billedmanipulation være meget effektivt og fungere som propaganda, siger Anja Bechmann til TV 2.

- Derfor synes jeg, vi skal have mere fokus på kilderne end på selve indholdet. Det er ikke enten eller, men at holde fokus på kilden er mere effektivt.

I tilfældene, hvor teknologien bruges til eksempelvis falske pornovideoer, er der dog tale om ulovligheder i form af identitetstyveri og æreskrænkelse, understreger hun.

- Problemstillingen med at finde afsenderne er, at lovgivningen ikke er særligt effektiv, så det er svært at retsforfølge ud over danske grænser og afsløre kilden. Præcis som det er tilfældet i flere sager om hævnporno, siger Anja Bechmann.

Ikke allemandseje - endnu

Teknologien kræver i dag, at man har adgang til et stort billed- eller videoarkiv med den person, man ønsker at redigere ind i en falsk video. Derfor er det i første omgang nok primært kendte og politikere, der er i fare for at blive misbrugt.

Derudover kræver teknologien stadig et vist it-kendskab, så der er endnu et stykke vej, før alle 11-årige med en bærbar computer kan lave troværdige falske videoer.

- Men vi kommer til at se store fremskridt i løbet af i år og de kommende år. Tiden er løbet fra, at den slags kun kunne laves af en superekspert i et mørkt rum, lyder det fra Anders Kofod-Petersen.

Reddit-brugeren, der står bag det gratis program, fortæller dog til Motherboard, at han håber at forfine programmet yderligere i den kommende tid, så brugerne endnu nemmere og med færre klik kan indsætte ansigter og laves deres egne falske videoer.