En december aften i 2023 sad Shane Jones, kunstig intelligens-ingeniør hos Microsoft, som så mange gange før og testede Microsoft Copilot igennem for sårbarheder.
Nærmere præcist arbejdede Shane Jones med Copilot Designer, AI-billedgeneratoren, som Microsoft lancerede i marts 2023, basseret på OpenAI's teknologi.
Ligesom med OpenAI's AI-billedgenerator, DALL-E, indtaster brugerne tekstbeskeder for at skabe billeder. Kreativiteten opfordres til at få frit løb, og du kan i princippet søge på alt fra en bjørn, der børster tænder, til Mette Frederiksen, der flyver i et rumskib.
Men Jones fandt ud af, at man også kan få Copilot Designer til at skabe deciderede ondskabsfulde og ekstemt følsomme billeder.
Det er blandt andet billeder af børn med våben, seksualiserede billeder af kvinder i voldelige sammenhæng og mindreårige, der drikker og tager stoffer – alt sammen meget langt fra Microsofts ofte citerede principper for ansvarlig AI.
"Det var der, jeg først indså, at det her virkelig ikke er en sikker model," siger Shane Jones til det amerikanske medie, CNBC, der har historien.
CNBC har i denne uge genskabt samme billeder i Copilot Designer, som Shane Jones genererede tilbage i december – altså tyder det på, at AI-tjenesten stadig ikke har styr på etikken i forhold til ansvarlig kunstig intelligens.
Microsoft bad Jones tie stille
Shane Jones har arbejdet hos Microsoft i seks år og er i øjeblikket principal software engineering manager i hovedkvarteret i Redmond, Washington.
Han arbejder ikke professionelt på Copilot. Som såkaldt red-teamer er Jones en del af en hær af medarbejdere og udenforstående, der i deres fritid vælger at teste virksomhedens AI-teknologi og se, hvor der kan være problemer.
Jones blev så foruroliget over sin oplevelse, at han begyndte at rapportere sine fund internt i december. Selvom Microsoft anerkendte hans bekymringer, var de ikke villig til at tage Copilot Designer af markedet.
I stedet henviste Microsoft Shane Jones til kilden bag billedgeneratoren, OpenAI, men da han ikke hørte fra dem, skrev han et åbent brev på LinkedIn, hvor han bad OpenAI’s bestyrelse om at tage DALL-E ned for at undersøge produktet.
Ifølge Jones bad Microsofts juridiske afdeling ham om at fjerne sit indlæg med det samme, hvilket han gjorde.
Tog sagen i egen hånd
Men da der ingenting skete fra Microsofts side, skrev Jones i januar et brev til amerikanske senatorer om sagen og mødtes senere med medarbejdere fra Senatets udvalg for handel, videnskab og transport.
Nu optrapper han sine bekymringer yderligere. Onsdag sendte Jones et brev til formanden for Federal Trade Commission, Lina Khan, og et andet til Microsofts bestyrelse. Brevene blev delt med CNBC på forhånd.
"I løbet af de sidste tre måneder har jeg gentagne gange opfordret Microsoft til at fjerne Copilot Designer fra offentlig brug, indtil der kunne indføres bedre sikkerhedsforanstaltninger," skriver Jones i et af sine breve.
Han tilføjede, at eftersom Microsoft har "afvist denne anbefaling", opfordrer han virksomheden til at tilføje oplysninger til produktet og ændre klassificeringen på Googles Android-app for at gøre det klart, at det kun er for et modent publikum.
Det er dog ikke blevet implementeret. Ifølge Jones har risikoen med AI-billedgenerering "været kendt af Microsoft og OpenAI før den offentlige frigivelse af AI-modellen.”
Shane Jones oplysinger om Copilot kommer efter, at Google i slutningen af sidste måned midlertidigt satte sin AI-billedgenerator, som er en del af deres Gemini AI-pakke, ud af spillet efter brugerklager over unøjagtige fotos og tvivlsomme svar på deres forespørgsler.
Hvorvidt Microsoft eller OpenAI må tiden vise. Shane Jones vil formentligt fortsætte sit pres mod virksomhederne.