Artikel top billede

(Foto: Jonathan Kemper/Unsplash)

Ny rapport afslører: Russiske og israelske grupper bruger AI til propaganda

OpenAI har været nødsaget til at lukke flere konti, fordi grupperinger i forskellige lande har benyttet dem til at sprede desinformation.

I de tre seneste måneder har OpenAI, der står bag chatbotten ChatGPT, været nødsaget til at suspendere en række konti, som var involveret i fem forskellige påvirkningskampagner, som de brugte selskabets AI til at udføre.

Grupperne, som stod bag disse kampagner, kommer fra Rusland, Israel, Iran og Kina.

Det skriver The Guardian på baggrund af en ny OpenAI-rapport om, hvordan selskabets teknologi bruges til påvirkningskampagner.

Rapporten er 39 sider lang og den første af sin slags.

Ifølge OpenAI er der tale om både statslige og private aktører, som har stået bag disse kampagner.

Ikke været en succes indtil videre

Ifølge OpenAI's rapport, så har ingen af de fem kampagner haft nogen større succes.

To af påvirkningskampagnerne fra Rusland har - måske ikke overraskende - handlet om at sprede kritik om Ukraine, USA og de tre baltiske lande.

På den anden side har Stoic, der er en politisk organisation i Israel, benyttet OpenAI's kunstige intelligens til at skrive opslag på de sociale medier til et netværk, der bestod af falske konti.

Her var målet at anklage amerikanske universitetsstuderende, der protesterer mod Israels krig i Gaza, for at være antisemitiske.

Det er ikke første gang, at gruppen Stoic får ørerne i maskinen. Organisationen blev tidligere på året smidt ud fra Metas platforme.