For lidt mere end et år siden måtte Microsoft lukke ned for virksomhedens chatbot Tay, der pludselig begyndte at udspye racistiske og hadefulde budskaber på Twitter.
Og nu har virksomheden igen problemer med en af sine chatbots.
Denne gang er det med chatbotten Zo, der belært af erfaringerne med Tay er programmeret til at undgå diskussioner om følsomme emner som politik og religion.
Men nu kan det amerikanske medie Buzzfeed News fortælle, at botten under en samtale med en af mediets journalister proklamerede at “koranen er meget voldelig”.
Buzzfeed News oplyser, at Zos beskrivelse af koranen kom som det blot fjerde svar i en samtale, som Buzzfeed-journalisten startede med botten.
I samtalen spørger journalisten botten “Hvad er din holdning til sundhedspleje,” hvorefter botten tilsyneladende skifter emne og svarer:
“Langt størstedelen praktiserer det fredfyldt, men koranen er meget voldelig”.
Microsoft oplyser til Buzzfeed, at denne type opførelse fra chatbotten er meget sjælden, og virksomheden oplyser, at den aktivt arbejder på at begrænse den type adfærd.
Satser stort på kunstig intelligens
Kunstig intelligens er et fokus område for de fleste store tech-virksomheder i øjeblikket, og episoderne med Microsofts chatbots demonstrerer, at teknologien stadigvæk befinder sig i et tidligt og meget umodent stadie.
Episode kan opstå, fordi udefrakommende kan udnytte svagheder i botternes indlæringsmekanisme.
Bots som Tay og Zo lærer typisk fra kommentarer og samtaler med brugerne, og derfor er det også muligt for brugerne at påvirke bottens fremtidige adfærd.
I sagen med chatrobotten Tay var det brugere på det kontroversielle debatforum 4chan, der i fællesskab forvandlede Tay fra at være en ganske fredsommelig og munter bot til en hadefuld propagandamaskine, der blandt andet proklamerede at "Hitler havde ret" og "jeg hader jøder."
En værdifuld lære
Sidste år interviewede Computerworld Microsofts “bot-guro” Norm Judah, der er CTO for Microsoft Worldwide Services.
Her fortalte han, at sagen med Tay har været en værdifuld lære for Microsoft og resten af tech-branchen.
"Episoden demonstrede, at det er muligt at gentræne en bot, og når den mulighed findes, så vil der altid være folk med dårlige intentioner, der vil forsøge at udnytte muligheden. Derfor skal vi alle være endnu bedre til identificere og håndtere det, når den slags sker. Det er en uheldig hændelse, men det er den slags hændelse, som er med til at gøre os klogere," sagde han til Computerworld
Læs hele interviewet med Norm Judah her: