Artikel top billede

(Foto: Yannis Ntousiopoulos)

Opfordring til digital taskforce: Vi skal rammesætte AI’s indbyggede svagheder

Klumme: Selvom især de potente generative AI-værktøjer skaber stor begejstring, er der også faldgruber, som AI-taskforcen skal være opmærksomme på, hvis AI for alvor skal kunne hjælpe den offentlige sektor med at høste fordelene på en forsvarlig måde.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Der er et stort pres på den offentlige sektor for at bruge kunstig intelligens-værktøjer (AI) til at yde hurtigere, bedre og mere omkostningseffektiv service.

Senest indgår det i kommunernes økonomiaftale for 2025, at der skal nedsættes en digital taskforce for kunstig intelligens.

Dette er en god idé, men selvom især de potente generative AI-værktøjer skaber stor begejstring, er der også faldgruber, som AI-taskforcen skal være opmærksomme på, hvis AI for alvor skal kunne hjælpe den offentlige sektor med at høste fordelene på en forsvarlig måde.

De generative AI-værktøjer, som for eksempel ChatGPT, er gode til at udtrykke sig sprogligt og fascinerer os ved deres evne til at komme op med gode nuancerede svar på vores spørgsmål.

Værktøjerne kommer endda med nye svar, når vi stiller det samme spørgsmål igen og igen. Denne evne til at kunne generere nye svar er noget af det, vi hylder ved værktøjerne, og som vi udnytter, når vi søger inspiration eller gerne vil have hjælp til at kickstarte en opgave.

Udfordringen er dog, at værktøjerne nogle gange ”opfinder” svar, som ikke har hold i fakta. Vi kalder det, at de hallucinerer.

Hvis vi for eksempel spørger ChatGPT om hvad der er de tre højeste bygninger i Århus, så svarer den: Lighthouse (142m), Salling Rooftop (70m), Domis-karréen (65m).

Stiller vi umiddelbart efter præcist samme spørgsmål igen, så svarer den: Lighthouse (142m), SHiP (93m), Æggepakkeriet (75m). Udover, at svarene er forskellige, så er Domis-karréen og Æggepakkeriet sandsynligvis samme bygning (blot angivet med forskellige højder).

Schrems-sagen, hvor Max Schrems anklager ChatGPT for at være i strid med GDPR-lovgivningen sætter også fokus på dette.

Sagen handler kort fortalt om, at ChatGPT, som ikke kender hans fødselsdag, ikke holder sig for god til alligevel at svare med en fiktiv (og forkert) dato. Modstriden med GDPR handler om, at man som borger har ret til at få rettet forkerte oplysninger.

Vi skal ikke her kommentere på den juridiske side af sagen, men det interessante er netop det tilfældige svar, som spørgsmålet giver anledning til.

ChatGPT indeholder jo slet ingen data om Max Schrems’ fødselsdag, og dermed heller ikke forkerte data, der kan rettes. Til gengæld vil værktøjet svare en ny (sandsynligvis) forkert dato næste gang, han spørger.

Det er således bemærkelsesværdigt, at lige netop det vi, ser som styrken i disse nye værktøjer, indenfor traditionel it faktisk ville blive anset ikke bare som en svaghed men som en decideret fejl.

Hvis vi for fem år siden havde afleveret et it-system til en kunde, som havde den egenskab, at det kom frem til forskellige resultater, hver gang det blev brugt på samme data, så ville kunden nok ikke rose os for vores generative gennembrud men i stedet fortælle os, at systemet var fejlbehæftet.

Og det er netop dette forhold, at AI-taskforcen bør være opmærksom på.

Vi anbefaler derfor, at den udstikker retningslinier for, at generative AI-værktøjer kun bør anvendes i det offentlige i de situationer, hvor man ikke søger præcision og konsistens. For eksempel når det er inspiration, resumeer eller overblik, der efterspørges.

Således bør de ikke anvendes i de situationer, hvor man søger det optimale og/eller bedste svar. Her kan andre typer AI værktøjer dog eventuelt anvendes.

På den måde kan de generative AI-værktøjer blive værdifulde ekspert/sagsbehandler-støtteværktøjer, som kan hjælpe med at gennemskue store informationsmængder og inspirere med nye indsigter.

Så når en borger for eksempel har behov for at komme tilbage i beskæftigelse, så kan sagsbehandleren anvende den generative AI i dialogen med borgeren og til forståelse af konteksten.

Derefter kan sagsbehandleren bruge andre typer AI-værktøjer til at foreslå den optimale indsats for borgeren, det vil sige ikke blot én mulig indsats blandt mange andre.

Det er dog stadigt sagsbehandleren, der derefter producerer det endelige svar til borgeren. Dette svar kan så igen videreformidles med hjælp af den generative AIs gode evner til sproglig formidling.

På denne måde kan det offentlige høste effektiviseringsgevinsterne uden at gå på kompromis med konsistensen og sporbarheden i sagsbehandlingen.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.