Derfor slår eksperterne alarm: Skal robotter bestemme over liv og død?

16x9
En fjernstyret kamprobot fra General Dynamics. I dag er det mennesker der afgør om robotten skal skyde, men det kan ændre sig i fremtiden. Foto: Office of Naval Research

I fremtiden vil robotter uden moralske skrupler kunne træffe beslutninger om at slå mennesker ihjel. Men der er langt til både Matrix og Terminator.

Inden for de sidste år har de teknologiske fremskridt være så store, at en række roboteksperter nu frygter, at robotterne kan blive til fare for mennesker.

Computerne er hverken onde eller gode. De er bare ligeglade.

Søren Tranberg Hansen, direktør, Brainbotics

I et åbent brev til FN advarer i alt 116 specialister fra 26 forskellige lande mod udviklingen inden for automatiserede våben. Blandt dem er Teslas topchef, Elon Musk.

Helt konkret handler det om udsigten til, at våben kan blive udstyret med kunstig intelligens, så man får maskineri, der selv kan tage beslutningen om at dræbe og føre den ud i livet. Populært sagt: dræberrobotter.

Robotterne kan trykke på aftrækkeren

Søren Tranberg Hansen er grundlægger og direktør i robotfirmaet, Brainbotics. Han er en af de 116 roboteksperter, der har underskrevet det åbne brev til FN. Han forklarer, at det, der vækker eksperternes bekymring, er nye typer af teknologi, som man kan putte ind i alle mulige våben.

Det handler om, at man i fremtiden måske vil bruge kunstig intelligens til at afgøre, om man skal gennemføre et angreb eller ej. Sådan er det ikke i dag – selv ved et fjernstyret droneangreb er det i sidste ende et menneske, der tager beslutningen om at smide en bombe eller på anden måde affyre et våben.

- I dag sidder der altid et menneske og skal tage en beslutning. Men man ville godt kunne lave et system, der selv træffer en afgørelse, og som ville være hurtigere, end hvis mennesker skulle forholde sig til det. For eksempel ved at analysere billeder og tage stilling til, om det er fjendtlig aktivitet, man skal slå til over for. Det er teknologien på vej til at blive god nok til at kunne, siger Søren Tranberg Hansen.

Fake news på steroider

Ud over billedgenkendelse hos computere, er der også andre potentielle problemer, der bekymrer eksperterne.

- Diskussionerne går også på autogenereret tekst – maskiner der selv genererer nyheder og opslag på sociale medier. Det kan for eksempel bruges til at lave automatiseret propaganda, der kan være med til at optrappe en konflikt. En slags fake news på steroider, siger Søren Tranberg Hansen.

Man kan for eksempel optrappe en konflikt ved at give relativt få udvalgte personer rigtig meget taletid ved at bruge computere til at generere en nyhedsstrøm på de sociale medier. Og det kan også være en problemstilling i forhold til det, man kalder for selvlærende systemer.

- Elon Musk bruger et eksempel, hvor man forestiller sig en computer, der har købt aktier i et våbenfirma. Det er en computer, der kan lære af sine erfaringer og arbejde hen imod et mål – for eksempel at optimere værdien af aktierne. Hvis man forestiller sig, at computeren lærer, at aktierne stiger, når der er konflikt i verden, så kan man hypotetisk set godt forestille sig, at computeren vil være med til at eskalere konflikten. Det kan for eksempel være ved at sende krigspropaganda ud på de sociale medier. En computer har ingen moralske skrupler, siger Søren Tranberg Hansen.

En vigtig debat

Det er ikke nødvendigvis kun negativt, hvis den nye teknologi bliver anvendt i våbensystemer. Men uanset hvad er det vigtigt, at emnet kommer op til debat, mener Søren Tranberg Hansen.

- Man kan sagtens forestille sig, at computere også kan lave en mere sikker og præcis krigsførelse. Men hvis vi ikke diskuterer det, er det ikke sikkert, at der vil blive taget hensyn til det. Så bliver det de virksomheder der laver teknologien, der styrer hele agendaen, siger han.

Når teknologien bliver i stand til effektivt at løse en opgave, som for eksempel at vurdere, hvornår der skal angribes, vil der nemlig være folk, som ønsker at anvende den, vurderer han.

- I fremtiden vil der være endnu mere pres på, for at det bliver computere der gør det, fordi de i mange tilfælde vil kunne gøre det hurtigere og bedre. Vi får måske flere konflikter, fordi det er nemmere og billigere at starte konflikterne, siger han.

Og derfor skal den internationale lovgivning opdateres, mener han.

- Den lovgivning, der er i dag, er ikke opdateret i forhold til teknologien. Der er behov for, at der kommer noget debat om, hvilke teknologiske fremskridt og muligheder vi skal have lov til at anvende i krig, siger han.

Droner er en af de våbentyper, der i fremtiden kan udstyres med kunstig intelligens, så de selv kan træffe beslutningen om at angribe.
Droner er en af de våbentyper, der i fremtiden kan udstyres med kunstig intelligens, så de selv kan træffe beslutningen om at angribe. Foto: Noorullah Shirzada / Scanpix Denmark

Dræberrobotter findes måske allerede

Det er faktisk meget muligt, at teknologien allerede findes. Det amerikanske militær har nemlig postet mange penge i forskning inden for kunstig intelligens.

- Det er svært at vide, hvor meget der ligger i skufferne rundt omkring i USA. Meget af den amerikanske forskning inden for robotter og kunstig intelligens er støttet eller betalt af militæret. Så der ligger formodentlig ting, som godt kunne bruges allerede nu. Så jeg synes egentlig, at vi står midt i det. Det er også derfor, brevet kommer nu, siger Søren Tranberg Hansen.

Computere interesserer sig ikke for verdensherredømmet

Udsigten til en fremtid med computere, der både besidder kunstig intelligens og evnen til at angribe og dræbe, vil måske for de filminteresserede lede tankerne hen i science fiction-genren. Vil computerne kunne bruge deres nye evner til - som i science fiction-filmen Matrix - at regere over jorden og menneskene? Nej, mener Søren Tranberg Hansen.

- Robotterne vil nok ikke forsøge at overtage verdensherredømmet, for det har de umiddelbart ikke nogen interesse i. Men man kan godt forestille sig, at de bliver lavet utilsigtet, så de for at optimere det mål de arbejder hen imod tager nogle meget kyniske beslutninger. Jeg tror ikke på ideen om, at computere kan være onde på den måde. Computerne er hverken onde eller gode. De er bare ligeglade, siger han.

Arnold Schwarzenegger, spillede i 1984 dræberrobotten Terminator i filmen af samme navn.
Arnold Schwarzenegger, spillede i 1984 dræberrobotten Terminator i filmen af samme navn. Foto: HERWIG PRAMMER / Scanpix Denmark

Eksperter trætte af Terminator-spekulationer

Når eksperterne i dag advarer om fremtidens dræberrobotter, forestiller de sig heller ikke en situation som i filmen Terminator, hvor en dræberrobot i Arnold Schwarzeneggers skikkelse vender tilbage fra fremtiden og går på menneskejagt med store skydevåben.

- Os, der arbejder inden for området, bliver tit lidt trætte af det, når vi får det der Terminator-scenarium rullet ud. For vi er slet ikke i nærheden af at udvikle en robot, der helt af sig selv bare kan gå rundt og pløkke til højre og venstre. Men man kan godt forestille sig et IT-system til en drone, som tager en beslutning om, at nu skal der smides en bombe, fordi den har beregnet tidspunktet ud fra nogle billeder eller lignende, siger Søren Tranberg Hansen.

Han mener, at fascinationen af Terminator godt kan stå i vejen for at man får diskuteret problemstillinger, der ligger mere lige for. Han vil dog ikke helt udelukke at virkeligheden en gang kan komme til at minde om filmen.

- På sigt kan man også godt forestille sig det her Terminator-scenarium, men det er altså meget meget hypotetisk stadigvæk, om vi kommer der til, siger han.