16 af verdens førende AI-selskaber er enige om de principper, som AI fremover skal udvikles efter, og de har i forening underskrevet en fælles erklæring om det.
Underskrifterne er blevet sat i forbindels med den store AI Seoul Summit, som i disse dage løber af stablen i Sydkorea.
De 16 selskaber tæller en stribe af de mest fremtrædende og toneangivende AI-selskaber på jordkloden lige nu.
Aftalen hedder ‘Frontier AI Safety Commitments.’
Med aftalen forpligter de 16 selskaber sig til ikke at udvikle eller udrulle AI-modeller, som er usikre, ligesom de forpligter sig til at sikre “dokumenterbare governance-strukturer og offentlig transparens i deres tilgang til banebrydende AI-sikkerhed,” som det hedder.
De 16 selskaber kommer fra både USA, Kina, Europa og Mellemøsten og dækker således alle de områder i verden, der lige nu sætter dagsordenen for udviklingen af AI.
Med aftalen forpligter de 16 selskaber sig til at udarbejde og offentliggøre det sikkerheds-framework, som de fremover skal udarbejde risikoanalyser og lignende efter.
I disse frameworks vil selskaberne også klart beskrive, hvornår ricisi vurderes så alvorlige, at de kan blokere for udviklingen - og hvad selskaberne vil gøre for at sikre, at grænseværdierne ikke overskrides.
“I de mest ekstreme tilfælde forpligter virksomhederne til sig ikke at udvikle eller udrulle overhovedet,” lyder det fra fra selskaberne.
Hvor grænsen går, vil de 16 selskaber nu definere efter input fra blandt andet regeringerne for de lande, hvor de hører til. Det har de det næste år til.
Det er nemlig planen, at disse grænseværdier - ‘thresholds,’ kalder de dem - skal være klar til præsentation, når den store AI Action Summit-konference løber af stablen i Frankrig i 2025.
Du finder hele aftalen Frontier AI Safety Commitments, AI Seoul Summit 2024 her.