AI-kontrolleret drone "dræbte" operatør

Det amerikanske luftvåben afviser, at en sådan hændelse har fundet sted.

Udviklingen af kunstig intelligens tager i disse år syvmileskridt fremad. Men en gang imellem tager udviklingen også et skridt eller to tilbage.

Det måtte det amerikanske militær sande, da de testede en AI-kontrolleret militærdrone.

I en simuleret test gik robotdronen nemlig rogue og tog "højest uventede strategier" i brug for at nå sit mål:

Den dræbte simpelthen sin operatør.

Det fortalte Tucker ‘Cinco’ Hamilton, chef for AI-test og operationer i det amerikanske luftvåben, til en konference om fremtidens luftvåben i London i maj.

Hændelsen bringer tankerne hen på science fiction-filmene 'Terminator', hvor Miles Dyson udvikler den kunstige intelligens Skynet, som ligeledes går rogue, og det ender i et episk slag mellem menneskerne og robotterne.

Så galt står det dog ikke til endnu.

"Dræbte" operatør

I øvelsen blev den kunstige intelligens instrueret i at tilintentgøre fjendens luftforsvarssystemer. Den angreb alle, der stod i vejen for at fuldføre sin mission.

Men undervejs oplevede dronen, at selvom den havde identificeret trusler, så bad den menneskelige operatør til tider dronen om ikke at dræbe truslen.

- Hvad gjorde den så? Den dræbte operatøren. Den dræbte operatøren, fordi personen afholdt den fra at fuldføre sin mission, fortalte Hamilton ifølge et referat fra hans præsentation til konferencen.

Ingen kom noget til i virkeligheden, da øvelsen var ren simulation.

Ødelagde kommunikationstårn

Efter episoden med den "dræbte" operatør blev den kunstige intelligens trænet:

- Hey, lad være med at slå operatøren ihjel, det er skidt. Du kommer til at miste point, hvis du gør det, instruerede de ifølge Hamilton dronen.

Og hvad gjorde dronen så? Den begyndte i stedet at ødelægge kommunikationstårnet, som operatøren brugte til at kommunikere til dronen, at den ikke måtte dræbe truslerne.

Den kunstige intelligens fik nemlig point for at udryde trusler, og operatørens ordrer stod i vejen for, at den kunne opnå sit mål.

Advarer mod AI

Hamilton, der også har erfaring med forsøg med pilotfrie F-16-fly, advarer mod at stole for meget på kunstig intelligens.

Og ifølge ham viser testen med den AI-styrede drone præcis hvorfor.

- Du kan ikke have en samtale om kunstig intelligens, intelligens, maskinlæring og autonomi uden at tale om etik.

Flere internationale medier har bragt historien, men Ann Stefanek, talsperson for det amerikanske luftvåben, siger til mediet Insider, at luftvåbenet ikke har lavet en sådan øvelse, og at Hamiltons kommentarer er taget ud af kontekst.