Ekspert: Disse tre ting bør vi frygte ved kunstig intelligens
Det er "på ingen måde urealistisk", at intelligente våben kan vende sig mod mennesker, siger ekspert i kunstig intelligens i nyhedspodcasten 'Dato'.
Kunstig intelligens kan blive lige så dødbringende for menneskeheden som atomvåben og pandemier. Derfor bør den tages lige så alvorligt.
Sådan lød advarslen fra 350 topledere, forskere og ingeniører, der arbejder med kunstig intelligens, i en erklæring, der blev offentliggjort i maj.
Blandt underskriverne findes Sam Altman, der er administrerende direktør i OpenAI, som står bag ChatGPT.
Og der er god grund til at være bekymret.
Det mener Thomas Terney, der er ph.d. i kunstig intelligens, i torsdagens afsnit af TV 2s nyhedspodcast 'Dato'.
- Jeg er da også bekymret for, at det her spinner ud af kontrol, siger han.
Her fortæller han om de tre årsager til, at selv de fremmeste eksperter på området frygter brugen af kunstig intelligens.
1. Våben vender sig mod mennesket
Én af de bekymringer, tech-eksperterne har i forhold til kunstig intelligens, er, at intelligente våbensystemer kan finde på at vende sig mod mennesket.
Det skal ikke forstås på den måde, at de intelligente våben kan udvikle egne ønsker og bevidst gå efter mennesker, siger Thomas Terney.
I stedet fremlægger han et hypotetisk scenarie:
En intelligent drone, hvis overordnede mål er at skyde fjendtlige missiler ned, kan få point alt efter, hvor mange missiler, den rammer.
Men før den skyder et missil ned, skal den have godkendelse fra et menneske.
- På et eller andet tidspunkt bliver mennesket en begrænsende faktor i forhold til, hvor mange point, den kan få ved at skyde missilerne ned. Hvis den skal opnå sit mål, bliver den nødt til at få mere kontrol. Det kan den få ved at tage mennesket ud af ligningen, forklarer Thomas Terney.
Ifølge ham er scenariet "på ingen måde urealistisk", eftersom mange lande allerede har intelligente våbensystemer i brug.
2. Vi risikerer at miste kontrollen
En anden udfordring ved brugen af kunstig intelligens er, at den ikke har en menneskelig referenceramme og et menneskeligt værdisæt.
Det betyder, at den kan opfinde måder at løse et givent problem på, som mennesker ikke kan forudse, at den vil tage i brug.
Thomas Terney illustrerer udfordringen med et eksempel.
- Hvis jeg beder en kunstig intelligens om at sørge for, at en baby holder op med at græde, så forestiller jeg mig selvfølgelig noget i retning af, at den sørger for at vugge babyen, siger han.
- Men hvordan koder vi et form for værdisæt, så den ikke bare tænker: "Okay, hvis baby skal være stille, hvorfor putter jeg den så ikke bare under vand?".
På den måde kommer vi mennesker ud af kontrol, når vi ikke kan overskue eller forudse, hvilke kreative problemløsningsmetoder, den kunstige intelligens tager i brug.
- Hele den referenceramme, vi har som mennesker, lægger en begrænsning for hvilke løsninger, vi tænker, er mulige. Det kan godt være, at vi synes, det er irriterende at få en parkeringsbøde. Men det gør jo ikke, at vi tænker: Okay, løsningen er, at jeg bare kører alle parkeringsvagter ned, forklarer Thomas Terney.
3. Misinformation
En tredje, meget almindelig kendt problematik i forhold til kunstig intelligens, er, hvor nemt den kan bruges til at sprede misinformation.
I slutningen af maj florerede et AI-genereret billede af Pentagon, der er blevet bombet, på Twitter.
Kort efter tog det amerikanske aktiemarked et mærkbart dyk, der dog kun varede få minutter.
Den slags falsk information er via kunstig intelligens "meget, meget nem at lave for almindelige mennesker", siger Thomas Terney.
- Udfordringen er, at vi har enormt svært ved som mennesker at skelne, om noget er rigtigt eller ej. Man kan hurtigt forestille sig nyhedsstrømme, der påvirker os, med nyheder, som aldrig har fundet sted, fortæller han.
Du kan høre Thomas Terney fortælle meget mere om udfordringerne med kunstig intelligens og de mulige løsninger i torsdagens afsnit af TV 2s nyhedspodcast 'Dato'.