Artikel top billede

(Foto: Trac Vu/Unsplash)

Google dropper AI-løfte: Nu kan teknologien bruges til våben og overvågning

Google har fjernet et centralt løfte i sine AI-principper om ikke at udvikle kunstig intelligens til våben eller overvågning. Ændringen sker i takt med, at selskabet øger sin satsning på AI til regeringer og forsvarsindustrien.

Google har opdateret sine officielle AI-principper og fjernet tidligere forpligtelser om ikke at anvende kunstig intelligens til våben eller overvågning.

I den tidligere version af principperne stod der, at Google ikke ville udvikle "våben eller andre teknologier, hvis primære formål eller anvendelse er at forårsage eller direkte facilitere skade på mennesker," samt at virksomheden ikke ville udvikle "teknologier, der indsamler eller bruger information til overvågning, der krænker internationalt anerkendte normer."

Disse formuleringer er nu fjernet fra Googles officielle AI Principles-hjemmeside, skriver CNBC.

"Der er en global konkurrence om AI-lederskab i en stadig mere kompleks geopolitisk situation. Vi mener, at demokratier bør lede udviklingen af AI, styret af kerneværdier som frihed, lighed og respekt for menneskerettigheder.”

Sådan lyder det i et blogindlæg, der er underskrevet af DeepMind-direktør Demis Hassabis og andre topledere i Google.

En geopolitisk brik

Googles ændringer afspejler virksomhedens voksende ambitioner om at tilbyde AI-teknologi til regeringer og forsvarsindustrier, hvilket er en markant drejning i strategien.

Samtidig er retorikken i Silicon Valley blevet skærpet, når det gælder kampen om AI-dominans.

Palantirs CTO, Shyam Sankar, udtalte for få dage siden, at "det vil kræve en national indsats langt ud over forsvarsministeriet, hvis vi som nation skal vinde."

Googles tidligere AI-principper beskrev, at virksomheden ville "tage en bred vifte af sociale og økonomiske faktorer i betragtning."

I den nye version lyder det nu, at Google vil "gå videre med AI, hvor vi vurderer, at de samlede sandsynlige fordele væsentligt overstiger de forudsigelige risici og ulemper."

Google forsikrer dog, at virksomheden fortsat vil "forblive i overensstemmelse med internationalt anerkendte principper for menneskerettigheder og lovgivning", og at konkrete AI-projekter vil blive vurderet individuelt ud fra deres potentielle fordele og risici.

En stor u-vending

Googles AI-principper blev oprindeligt formuleret i 2018, da selskabet valgte ikke at forny en kontroversiel regeringskontrakt kaldet Project Maven.

Projektet gik ud på at analysere droneoptagelser ved hjælp af AI, og det skabte så stor intern modstand, at flere tusinde Google-ansatte underskrev en protesterklæring, mens adskillige sagde op.

På daværende tidspunkt afviste Google også at byde på en stor forsvarskontrakt til en værdi af 10 milliarder dollar, fordi virksomheden "ikke kunne være sikker på, at den ville være i overensstemmelse med selskabets AI-principper."

Siden har Google dog ændret kurs.

Under CEO Sundar Pichais ledelse har virksomheden aggressivt jagtet offentlige kontrakter, hvilket har ført til stigende spændinger internt blandt medarbejderne.

"Vi mener, at virksomheder, regeringer og organisationer, der deler disse værdier, bør samarbejde om at skabe AI, der beskytter mennesker, fremmer global vækst og understøtter national sikkerhed," lyder det i blogindlægget.

Intern modstand og fyringer

Googles nyeste ændringer kommer i kølvandet på en række kontroversielle AI-samarbejder, hvoraf Project Nimbus er blandt de mest omdiskuterede.

Project Nimbus er en fælles kontrakt mellem Google og Amazon til en værdi af 1,2 milliarder dollar.

Aftalen indebærer, at selskaberne leverer cloud- og AI-tjenester til den israelske regering og militær.

Google har gentagne gange hævdet, at kontrakten ikke strider mod virksomhedens AI-principper.

Dog afslørede dokumenter og rapporter, at aftalen blandt andet gav Israel adgang til AI-baseret billedgenkendelse, objektsporing samt teknologi, der kunne bruges af statslige våbenproducenter.

Ifølge The New York Times udtrykte Google-ledere allerede fire måneder før aftalens underskrivelse bekymring for, at Nimbus kunne skade selskabets omdømme og risikere at forbinde Google Cloud med menneskerettighedskrænkelser.

De kontroversielle AI-kontrakter har ført til interne protester blandt Google-ansatte, hvilket senest resulterede i, at virksomheden fyrede mere end 50 medarbejdere i 2023.

De fyrede ansatte havde deltaget i demonstrationer mod Project Nimbus, hvilket Google betragtede som en overtrædelse af arbejdspladsens retningslinjer.

Samtidig har Google indført nye regler for interne diskussioner om geopolitiske emner.

Ifølge dokumenter, som CNBC har fået indsigt i, opdaterede Google i september sin Memegen-forum-politik, så medarbejdere ikke længere må diskutere emner som international politik, militære konflikter og økonomiske sanktioner.

Ingen kommentarer

Google har ikke besvaret flere mediers anmodninger om kommentarer til de opdaterede AI-principper eller på kritikken af virksomhedens voksende engagement i regerings- og forsvarskontrakter.

Ændringerne sker dog samtidig med, at Google har offentliggjort sine seneste kvartalsregnskaber.

Ifølge The Washington Post blev de nye AI-principper afsløret kort før, at selskabets resultater skuffede Wall Street og sendte aktiekursen ned med op til ni procent i eftermarkedet.