Artikel top billede

(Foto: Microsoft/PR)

Tidligere OpenAI-bestyrelsesmedlem taler ud om Sam Altmans fyring: Bestyrelsen vidste ingenting om lanceringen af ChatGPT

Magtkampe, manipulation og hold kæft-klausuler. Det og en masse andet er det, der ifølge et tidligere medlem af OpenAI's bestyrelse, har præget selskabet indefra igennem en længere periode.

Der har i de seneste uger endnu en gang været gang i svingdøren hos selskabet OpenAI, der står bag den berømte og berygtede chatbot ChatGPT.

Og nu har Helen Toner, som er et tidligere bestyrelsesmedlem i OpenAI taget bladet fra munden og talt om de interne problemer, som AI-virksomheden ifølge hende har bragt sig selv i.

Helen Toner afslører i samme ombæring også årsagen til, at OpenAI-CEO Sam Altman røg ud af selskabet i slutningen af 2023.
Alt det, fortæller hun i podcasten "The Ted AI Show".

Støttede fyring af Sam Altman

Helen Toner var et af de bestyrelsesmedlemmer, der i slutningen af 2023 argumenterede for at fyre Sam Altman.

Beslutningen var delvist motiveret af, at Sam Altman ikke havde informeret bestyrelsen om sin vigtige rolle i OpenAI Startup Fund, som han havde fuld kontrol over.

Efter en kort magtkamp vendte Sam Altman tilbage til OpenAI, mens Helen Toner og en række andre bestyrelsesmedlemmer hurtigt forlod virksomheden efterfølgende.

Problemerne i OpenAI havde dog stået på i længere tid end det, forklarer Helen Toner.

Ifølge hende var OpenAI's bestyrelse eksempelvis slet ikke klar over, at ChatGPT var blevet lanceret.

"Da ChatGPT kom ud i november 2022, blev bestyrelsen ikke informeret på forhånd om det," fortæller Helen Toner i podcasten.

Sidenhen har ChatGPT gået sin sejrsgang og blev blandt andet den hurtigst voksende app nogensinde.

Giftigt arbejdsmiljø, manipulation og hold kæft-klausuler

En anden faktor, der spillede ind, da OpenAI bestyrelsen valgte at fyre Sam Altman, var, at han ifølge Helen Toner flere gange havde fejlinformeret bestyrelsen om sikkerhedsprocesser, som selskabet brugte.

Ifølge hende hænger det ikke sammen, når man på den ene side forsikrer om, at AI-udviklingen i selskabet foregår under sikre rammer og man efterlyser klar lovgivning, mens man samtidig sprøjter AI-applikationer ud med lynets hast.

Helen Toner anklager samtidig Sam Altman for at nære det, hun kalder for en giftig arbejdskultur.

Det er hun ikke ene om. Flere tidligere ledere i selskabet er kommet med lignende beskyldninger, efter de har forladt OpenAI.

For to uger siden forlod OpenAI's medstifter, Ilya Sutskever, også virksomheden. Han har qua sin rolle som chief scientist siden 2018 været ansvarlig for udviklingen af nye AI-modeller for OpenAI.

Ilya Sutskever har også tidligere talt om, at Sam Altman og OpenAI efter hans opfattelse lancerede OpenAI’s løsninger alt for tidligt og inden konsekvenserne af dem har været ordentligt belyst.

Og det har bekymret ham på menneskedens vegne.

Det var i øvrigt også Ilya Sutskever, der via video-chat meddelte Sam Altman, at han var blevet fyret.

Andre tidligere ansatte har fortalt om, at de har fået en såkaldt kontraktlig mundkurv på og ikke må sige noget negativt om selskabet, når de forlader OpenAI. Ellers risikerer de at miste eksempelvis aktieandele.

Det fik i forgangne uge selskabet til at komme med en meddelelse, hvor man lovede ikke at fratage optjente aktier fra tidligere medarbejdere, selvom disse skulle have underskrevet konktrakter, der indeholdt disse omtalte klausuler.

Opretter komite

Grundet den jævne strøm af både medlemmer af ledelsen og tidligere ansatte, der har forladt OpenAI, lader det nu til, at selskabet er blevet tvunget til at handle.

Tirsdag annoncerede OpenAI oprettelsen af en såkaldt sikkerhedskomite.

Inden for 90 dage skal denne komite komme med en række anbefalinger angående AI-sikkerhed.

Udvalget har dog allerede mødt kritik og anses af kritikerne for at være en proforma-komite, da alle medlemmerne af denne komite består af OpenAI-insidere, der overlevede magtkampen i slutningen af 2023.