Sam Altman, OpenAI's CEO, har den seneste måneds tid været på charmeoffensiv i flere af verdens hovedstæder, hvor han i udsolgte sale og ved møder med regeringschefer har talt om, hvor stort et behov der er for global regulering af kunstig intelligens.
De fine taler matcher dog ikke med det, der er foregået bag kulisserne.
Her viser dokumenter nemlig, at OpenAI har lobbyet for, at væsentlige elementer af det der kaldes den mest omfattende AI-lovgivning i verden - EU's AI Act - skulle svækkes eller udvandes, så virksomhederne skulle bære en mindre regulatorisk byrde.
Det skriver Time baseret på dokumenter, som mediet er kommet i besiddelse af via aktindsigter fra EU-Kommissionen.
Dokumenterne afslører, at flere af de forslag til ændringer, som OpenAI foreslog, senere kom med i den endelige tekst fra EU, der efterfølgende blev godkendt af Europa-Parlamentet 14. juni i år.
Lovforslaget mangler på nuværende tidspunkt kun den sidste forhandlingsrunde, inden det kan gennemføres så tidligt som januar 2024.
Blandt andet argumenterede OpenAI gentagende gange for, at den kommende AI Act ikke skulle betragte selskabets værktøjer som GPT-3, der er forløberen for ChatGPT, samt billedgeneratoren Dall-E som værende "højrisiko". Denne betegnelse ville nemlig betyde, at værktøjerne skulle fungere under strengere lovkrav om blandt andet gennemsigtighed, sporbarhed og menneskeligt tilsyn.
Microsoft, der har købt størstedelen af OpenAI for 13 milliarder dollar, hjalp sammen med Google til i lobbyarbejdet for at lempe byrden af reguleringer for store udbydere af kunstig intelligens-værktøjer.
De argumenterede for, at reguleringsbyrden for at overholde lovens strengeste krav bør ligge hos virksomheder, der udtrykkeligt sætter sig for at anvende kunstig intelligens til højrisikobrug – og ikke på de (ofte større) virksomheder, der bygger AI-værktøjer til generelle formål.
"I sig selv er GPT-3 ikke et højrisikosystem," lød det fra OpenAI i et tidligere upubliceret dokument på syv sider, som blev sendt til EU-Kommissionens og Rådets embedsmænd i september 2022.
"Men [det] besidder egenskaber, der potentielt kan bruges i sager af højrisiko," lød det videre.
Ville forlade Europa - og så alligevel ikke
Sam Altman advarede i slutningen af maj mod EU’s planer om at regulere kunstig intelligens.
Det skete under et besøg i London, hvor han fortalte om sine “mange bekymringer,” når det gælder EU’s planer om indføre en såkaldte “AI Act.”
I yderste konsekvens kunne det betyde, at OpenAI måtte trække sine produkter fra det europæiske marked, lød advarslen.
“Vi vil forsøge at leve op til loven, men hvis vi ikke kan leve op til det, må vi stoppe driften,” sagde Sam Altman ifølge Financial Times og understregede, at detaljerne i lovgivningen får stor betydning for OpenAI.
En uge senere trak Altman dog i land.
I et opslag på Twitter, skrev han, at Open AI ’selvfølgelig ikke har nogen planer om at forlade’ EU.
"Meget produktiv uge med samtaler i Europa om, hvordan man bedst muligt regulerer AI! Vi er spændte på at fortsætte med at operere her og har selvfølgelig ingen planer om at forlade (EU, red.)," lød det i Altmans opslag på Twitter.
Succesfuld lobbyindsats
Det lader dog ifølge Time til, at OpenAI's lobbyindsats har haft succes.
I det endelige udkast, som de europæiske lovgivere stemte igennem i midten af juni, lyder det ikke længere, at kunstig intelligens-værktøjer til generelle formål bør betragtes som værende "høj risiko".
I stedet lyder det, at udbyderne skal overholde en lille håndfuld krav, der blandt andet omfatter, at udbyderne forhindrer generering af ulovligt indhold og oplyser, om deres værktøj er trænet ved brug af ophavsretligt beskyttet materiale.
Og det er altså anderledes end i efteråret 2022, hvor både ChatGPT og Dall-E ville være faldet ind under kategorien "høj risiko".
Sarah Chander, der er seniorpolitisk rådgiver hos European Digital Rights og juridisk ekspert, siger til Time, at OpenAI "fik, hvad de bad om”, efter hun har gennemgået dokumentet, som selskabet har sendt til EU.
Dokumentet viser, siger hun, "at OpenAI, ligesom mange Big Tech-virksomheder, har brugt argumentet om nytte og offentlig fordel ved AI til at maskere deres økonomiske interesse i at udvande reguleringen."
OpenAI siger i en meddelelse til Time, at selskabet på anmodning fra politiske beslutningstagere i EU gav et overblik over selskabets tilgang til sikker implementering af systemer som GPT-3, samt at de kommenterede det daværende udkast til AI Act.
"Siden da har (AI Act, red.) udviklet sig væsentligt, og vi har talt offentligt om teknologiens fremadskridende muligheder og adoption. Vi fortsætter med at engagere os med politiske beslutningstagere og støtter EU's mål om at sikre, at AI-værktøjer bygges, implementeres og bruges sikkert nu og i fremtiden," står der i meddelelsen.
Du kan læse det omtalte dokument fra OpenAI her.