Tech

Forskere og techmoguler frygter, hvad kunstig intelligens kan skabe af ravage – og med rette, siger to danske eksperter

Elon Musk, Apple-stifter Steve Wozniak og 1000 andre forskere advarer i åbent brev om, at AI kan udgøre en stor fare for samfundet og menneskeheden.

I midten af marts 2023 tog en teknologisk landvinding verden med storm: GPT-4.

AI-systemet var et vidnesbyrd om, hvor langt private aktører som OpenAI, der har skabt modellen, var i udviklingen af kunstig intelligens.

Men måske er det gået lidt for hurtigt.

I hvert fald opfordrer Elon Musk, der selv har investeret penge i OpenAI, Apple-medstifter Steve Wozniak og over 1000 andre i et åbent brev til, at man sætter udviklingen af kunstig intelligens på pause.

De frygter nemlig, at systemer som GPT-4 kan udgøre en fare for samfundet og menneskeheden.

Vi er alle sammen rimelig bange for udviklingen, fordi vi ved ikke, hvor vi er på vej hen

Kristoffer Stensbo-Smidt, forsker i kunstig intelligens på DTU

Og med rette, lyder det fra to eksperter, som TV 2 har talt med.

- Det burde vi have gjort for ti år siden, men det er simpelthen gået så stærkt på det seneste, siger Kristoffer Stensbo-Smidt, der forsker i kunstig intelligens på Danmarks Tekniske Universitet (DTU).

For hvis den kunstige intelligens ikke skal løbe løbsk, er man nødt til at underlægge den og de private virksomheder, som har været med til at accelerere udviklingen, nogle retningslinjer, mener han.

Et tveægget svær

Underskriverne af brevet vil have, at udviklingen af AI pauses i et halvt år.

Det skal bruges til at udvikle sikkerhedsprotokoller. Og der skal arbejdes på, at AI-systemer bliver mere sikre, præcise, tillidsvækkende og loyale.

- Kunstig intelligens er et tveægget sværd. Der er masser af grunde til at være bekymret for kunstig intelligens, og der er også masser af grunde til at være håbefuld, siger Anders Søgaard, der er professor i datalogi og filosofi ved Københavns Universitet.

Men på trods af, at der følger flere positive ting med kunstig intelligens, for eksempel kan det være en hjælpende hånd for blinde, vil de ikke opveje for de negative – medmindre man tøjler det, mener Anders Søgaard.

Han fortæller, at underskriverne – og ham selv – frygter for tre ting:

  1. At kunstig intelligens korrumperer den information, der er tilgængelig.
  2. At den trækker mennesker væk fra virkeligheden.
  3. At den bidrager til uligheder og skævheder i samfundet.

Især førstnævnte bekymring, at AI kan manipulere med den tilgængelige information, vækker bekymring hos DTU-forsker Kristoffer Stensbo-Smidt.

Risikerer spredning af misinformation

Et af de store kritikpunkter ved den nye kunstige intelligens er, at der er stor risiko for misinformation, da maskinerne stadig kan finde på ting, der ikke har noget med sandheden at gøre.

Det så man for eksempel, da Bings nye chatbot erklærede sin kærlighed til New York Times-journalisten Kevin Roose, eller da Googles kommende chatbot under en demo-video kom til at svare, at det var James Webb-teleskopet, der tog det første billede af en planet uden for solsystemet, selvom det allerede var sket 17 år før, teleskopet blev sendt op.

Og det er netop den kunstige intelligens evne til at producere propaganda, fotorealistiske billeder og virkelighedstro video, der får Kristoffer Stensbo-Smidt til at råbe vagt i gevær:

- Lige pludselig kommer vi til at sidde i en verden, hvor vi ikke kan stole på den tekst, vi læser, og hvor vi ikke kan stole på de billeder eller videoklip, vi ser. Så hvilken effekt får det for eksempel på vores valgsystem og vores tro på politikere?

Så sent som i sidste uge postede den britiske journalist Eliot Higgins for eksempel 50 falske billeder på Twitter af den daværende amerikanske præsident Donald Trump, som bliver anholdt. Alle billeder var skabt ved hjælp af kunstig intelligens.

Og mandag advarede det europæiske politisamarbejde, Europol, som den seneste i en længere række om, at ChatGPT og tilsvarende kunstige intelligenser kan misbruges af hackere.

Et halvt års pause er ikke nok

Anledningen for frigivelsen af brevet er netop lancering af AI-tjenesten GPT-4, som er blevet endnu mere menneskelig end dens forgænger GPT-3.

Blandt andet kan den fortælle, hvilke retter man kan lave med ingredienserne i ens køleskab, hvis man uploader et billede af indersiden, eller den kan lave funktionelle hjemmesider ud fra håndskrevne noter.

Faktum er også, at Chatbots lige nu er en af de helt store konkurrenceparametre for nogle af verdens techgiganter. Derfor spår eksperter også, at der snart kan lande en endnu bedre version af ChatGPT.

Kristoffer Stensbo-Smidt mener ikke, at et halvt års pause, som underskriverne af brevet foreslår, er nok – om end det er en start.

- Vi havde i dag en diskussion på DTU om lige præcis det her, og kommunikationen var, at vi alle sammen er rimelig bange for udviklingen, fordi vi ved ikke, hvor vi er på vej hen, og vi ved ikke, hvad de her systemer er i stand til, siger han.

En umulig opgave?

I det åbne brev fremgår det ikke, hvad det er for nogle retningslinjer, som underskriverne håber kommer ud af et halvt års pause.

Og selvom det kan synes som en umulig opgave at få både amerikanske og kinesiske privatvirksomheder til at indstille videreudviklingen, nærer Anders Søgaard et spinkelt håb til, at det kan lade sig gøre.

- Jeg tror godt, man kan sælge ideen om ansvarlig kunstig intelligens, fastslår han.

Der er ingen fra OpenAI, skaberen bag ChatGPT, der har underskrevet brevet. Men direktøren Sam Altman sagde ved lanceringen af den opdaterede version, at man skulle være opmærksom på, at systemet har sine begrænsninger, og man derfor ikke skal sætte for meget lid til det.