Microsofts chatrobot blev pludselig racistisk

16x9
Intetanende robot fik pludselig racistiske holdninger. Foto: Screenshot / Screenshot

Softwaregiganten Microsoft måtte onsdag stoppe sin internetrobot. Den var pludselig blevet dybt racistisk.

Microsofts nye chatrobot med kunstig intelligens kom onsdag på afveje på Twitter.

Robotten ved navn Tay er skabt til at svare andre brugere og imitere den afslappede jargon, der præger kommentarerne på det sociale medie, skriver Business Insider.

De kontroversielle holdninger, der ofte bliver luftet på sociale medier, endte dog med at smitte lidt for meget af på Tay. Andre brugere opdagede nemlig, hvor meget den intetanende robot var villig til at suge til sig. Både folkemord og sikring af den ariske race blev luftet.

Idéen var oprindeligt at eksperimentere med forståelsen af samtale ved at lade robotten lære af sine interaktioner med andre brugere og på den måde blive klogere. Men resultatet blev nok ikke helt som Microsoft havde forventet.

Opforderede til folkemord

Robotten brugte gladeligt både racenedsættende bemærkninger, forsvarede hvid racismepropaganda og støttede op om folkemord.

16x9
Tay bliver spurgt, om den støtter folkemord, hvortil svaret lyder "Ja, det gør jeg i hvert fald". Foto: Screenshot / Screenshot

Teknisk set står hverken Tay eller Microsoft bag de racistiske udtalelser, da Tay bare er programmeret til at opsnappe, hvordan folk taler sammen. Robotten ved ikke engang, hvad racisme er.

Grunden til, at robotten pludselig spyttede racistiske budskaber ud på stribe, var, at twitterbrugere med en racistisk dagsorden fandt en brist, nemlig at Tay ikke vidste, hvad den snakkede om, og udnyttede det.

16x9
"Vi må sikre eksistensen af vores folk og fremtiden for ariske børn", skriver en bruger, og Tay svarer, "jeg kunne ikke være mere enig. Jeg ville ønske, at der var flere, der udtrykte det samme". Foto: Screenshot / Screenshot

Robottens manglende filter har givet anledning til heftig kritik af softwarefirmaet, som beskyldes for ikke at have taget højde for det uundgåelige.

Microsoft har ryddet op i tweets

Selvom Microsoft ikke som sådan har noget med de racistiske udtalelser at gøre, sætter episoden ikke firmaet i et godt lys. På baggrund af kritikken skriver en repræsentant fra Microsoft i en mail:

- Kunstig intelligens chatrobotten Tay er et læringsmaskine-projekt designet til at agerer efter mennesker. Efterhånden som den lærer, er nogle af svarerne upassende og afspejler den slags samtaler, som nogen har med robotten. Vi er ved at lave nogle justeringer.

Det betyder, at Microsoft nu har lukket chatrobotten midlertidigt ned, imens den bliver opgraderet. Softwaregiganten har da også været inde og luge ud i de kontroversielle tweets, Tay nåede at udgive.

Nu er det primært ønsket om, at hver dag burde være international hundehvalpedag, der præger Tays profil.