Deepfake-porno af Billie Eilish vækker vrede – konsekvenserne kan være voldsomme, siger ekspert
En digital ekspert forventer, at mange kvinder i den offentlige debat vil kunne blive udsat for teknologien i fremtiden.
I den seneste tid har en video af den amerikanske sanger Billie Eilish i en seksuel situation floreret på det sociale medie Tiktok.
Men i virkeligheden er det slet ikke Billie Eilish men blot hendes ansigt, der er blevet manipuleret ind i scener fra en pornofilm. For den amerikanske sanger er ufrivilligt blevet en del af en såkaldt deepfake-video.
En teknologi der bliver stadig mere og mere avanceret, og som ofte bruges til at manipulere et menneske ind i situationer, der aldrig har fundet sted.
Deepfake-teknologien er i dag så god, at det kan være svært at se forskel på virkeligt og falskt, fortæller Christiane Vejlø, der er digital trendanalytiker hos Elektronista Media.
- Rent teknisk skal der ikke særlig meget til, for at man kan finde et program og lave noget lignende. Men teknologien er forbundet med store dilemmaer, siger hun.
Vil undgå seksualisering af kroppen
Videoen af Billie Eilish blev fjernet, da den overtrådte Tiktoks retningslinjer om "seksuel chikane". Alligevel nåede videoen at ligge på platformen i fire dage, hvor den fik 11 millioner visninger.
Tiktok-kontoen, som delte indholdet af Eillish, havde over 76.000 følgere og var knyttet til en Instagram-konto. Her reklamerede den samme bruger for, at de solgte flere manipulerede billeder af Eilish, skriver VICE.
Den 21-årige sanger er kendt for at være aktivistisk omkring kvinders rettigheder, og hun har ofte italesat, at kvinder skal kunne iklæde sig, hvad de vil uden at blive dømt for det.
Hun har tidligere forklaret, at grunden til, at hun ofte går i løstsiddende tøj, er, at hun vil "forhindre at hendes krop seksualiseres". I 2020 delte hun også en kortfilm på Instagram, hvor hun fremførte en monolog om bodyshaming.
Derfor har det også mødt vrede fra hendes fans, at lige netop Eilish er udsat for dette. Instagram er også blevet heftigt kritiseret for, at videoen overhovedet har kunnet florere på platformen så længe.
- Tiktok bør ikke anbefale disse videoer i feedene til deres brugere. Det er ikke en harmløs "meme" eller et stillbillede fra sangerens egne videoer. Det er hyperseksualiserede AI-manipulerede billeder, siger den administrerende direktør for Chayn, en global interesseorganisation der arbejder mod kønsbaseret vold, til VICE.
Hun fremhæver også, at hun mener, at techplatformen har et ansvar for, at indholdet gennem mediets algoritmer hurtigt kan finde vej til børn.
Bruges ofte til porno
Der er i dag mange muligheder for at lave forskellige former for deepfakes eller ting, der ligner. Enten kan det foregå på klassisk vis gennem photoshop, eller hvor man bruger kunstig intelligens. Der er sågar udviklet apps og internettjenester, der – enten gratis eller mod betaling – har gjort det muligt at fremstille falsk porno ved få klik.
Det er Christiane Vejløs indtryk, at teknologien i dag bruges mest til at photoshoppe kendte ind i porno. Men hun har også set eksempler, hvor man i videoer har fået personer til at sige noget, de aldrig har sagt.
- Det kunne være en politiker, som taler om det modsatte af, hvad hun mener, eller en direktør der siger noget, som får aktiekurserne til at falde. Så konsekvenserne kan være voldsomme, siger Christiane Vejlø.
Men selvom der kan være nogle etiske faldgruber, og teknologien kan blive misbrugt, så fremhæver hun også, at den giver mange muligheder. Hun peger på, at virksomheder bruger det i reklamefilm, og at det også kan bruges i film, så skuespillere kan medvirke længe efter deres død. I mere uskyldige tilfælde kan man også bruge teknologien til at få sig selv til at se ældre ud eller lave såkaldte ’face swaps’, altså udskiftning af ansigter.
- Teknologien kan være meget farlig. Men den kan også bruges til at lave kunst, satire og fede reklamer, så det er ikke teknologien, man skal forbyde. Det handler om etiske aspekter i forhold til, hvad der er okay, mener hun.
Men i situationer, som den Billie Eilish har været udsat for, bliver det selvsagt mere alvorligt, siger hun. Der har også været sager, hvor folk er blevet dømt for at manipulere personer ind i krænkende situationer, uden at de har givet samtykke til det.
Dertil vil det være ekstremt ubehageligt for de fleste mennesker og skal tages dybt alvorligt, understreger hun.
- Selvom de ikke fysisk har været der, så føles det jo som et kæmpe overgreb, når hele verden ser dem i den situation, siger hun.
Christiane Vejlø frygter, at vi vil se teknikken blive brugt som en form for "hævnporno", fordi man ikke behøver have billederne af sin ekskæreste nøgen, men selv kan skabe dem.
Derfor tror hun også, at vi på godt og ondt skal forvente at se mere til deepfake-indhold fremover. Hun tror særligt, at kvinder med en fremtrædende rolle i medierne vil kunne opleve at blive udsat for det, fordi man ofte ser, at de angribes på deres køn, mener hun.
I sidste ende kan det gå ud over hvem som helst, lyder det:
- Selvom det meget har været kendte, der har været udsat for det her, så vil almindelige mennesker også kunne opleve det. For det er desværre let at lave, så det handler om både loven og afsenderens moral, siger hun.