Artikel top billede

En virkelig dum måde at løse et simpelt problem på. Foto genereret med Ideogram. (Foto: Jonathan Løw/Ideogram)

"Model collapse" er en slags digital indavl: Bliver AI dummere og dummere?

Klumme: Vi ved, at I udvikler sig vanvittigt hurtigt i denne tid, men er der en bagside af medaljen? Er vi på vej imod et såkaldt ’model collapse’ – altså en situation, hvor AI-systemer langsomt bliver dummere og dummere, fordi de trænes på data, der er skabt af andre AI-systemer?

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Jeg introducerede for første gang begrebet ’model collapse’ i mine foredrag og workshops om AI for et års tid siden.

Efterfølgende er begrebet snakken om begrebet taget til, og det beskriver en situation, hvor AI-systemer gradvist mister deres intelligens og effektivitet, fordi de trænes på data, som delvist eller udelukkende er genereret af andre AI-modeller.

Når AI-modeller begynder at lære af hinanden uden menneskelige input, er frygten, at de risikerer at blive mindre præcise, mindre kreative og mindre nyttige.

Man kan tænke om det som en slags digital indavl. Når AI-modeller trænes på deres egne tidligere output, begynder de at gentage sig selv og miste variation og kvalitet. Dvs. at de i praksis bliver dummere og dummere og fører til et såkaldt ’model collapse’.

Tech-giganterne kæmper for at løse problemet

AI-modeller er afhængige af enorme mængder data for at lære og forbedre sig. Store techfirmaer som OpenAI, Google og Meta skraber konstant internettet for at finde nye data til at træne deres modeller.

Siden udbredelsen af generativ AI i kraft af ChatGPT og Copilot 2022 er der imidlertid sket en markant stigning i mængden af AI-genereret indhold på nettet.

Vi skaber altså en situation, hvor AI fodres med indhold, som er skabt af andre AI-modeller, og det kan i sidste ende svække systemernes kvalitet.

Det virker oplagt at tænke, at virksomheder vel blot kan filtrere AI-genereret indhold fra, så vi undgår problemet?

Problemet er imidlertid, at dette langt fra er så enkelt endda. Techgiganterne bruger allerede i dag enorme ressourcer på at rense og filtrere deres data for at sikre kvaliteten.

Men med den stigende mængde af AI-genereret indhold bliver det stadig sværere at adskille menneskeskabt fra AI-skabt indhold.

Det bliver næppe til et total kollaps

Der er dog også positivt nyt i forhold til frygten for et model collapse.

Mange af de nuværende forskningsresultater indenfor området bygger på scenarier, hvor AI fuldstændig erstatter menneskelig data. I virkelighedens verden vil vi dog sandsynligvis se en kombination af menneskelige og AI-genererede data eksistere side om side i fremtiden, hvilket vil mindske risikoen for et kollaps.

Derudover vil vi sandsynligvis se en fremtid med et mere diversificeret AI-økosystem, hvor flere forskellige AI-modeller skaber og publicerer indhold.

Det vil også gøre systemet mere robust og mindre sårbart over for en samlet kollaps.

Selvom et totalt kollaps næppe ikke er nært forestående, er der stadig væsentlige risici forbundet med den stigende mængde af AI-genereret indhold.

Et af de største problemer er, at det kan true vores digitale miljø. For eksempel har forskere fundet ud af, at aktiviteten på kodningsplatformen StackOverflow faldt med 16 procent et år efter ChatGPTs lancering.

Det tyder på, at AI altså allerede reducerer menneskelig interaktion på visse platforme.

En anden udfordring er, at det bliver stadig sværere at skelne mellem menneskeskabt og AI-genereret indhold. Det kan føre til en stigning i lavkvalitetsindhold, clickbait og misinformation, hvilket truer kvaliteten af det indhold, vi finder online.

Endelig er der risikoen for kulturel homogenisering. Hvis AI-systemer bliver den primære kilde til indhold, kan vi miste vigtige kulturelle og sociale perspektiver.

Derfor er det vigtigt, at vi herinde på Computerworld og alle andre steder i vores hverdag og liv beskytter menneskelige interaktioner og data – både for vores egen skyld og for at sikre AI-systemernes fremtidige kvalitet.

Teknologien er kommet for at blive, men vi må tage ansvar for at bruge den på en måde, der bevarer både kvalitet og menneskelig mangfoldighed.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.