Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Kunstig intelligens er de seneste år stille og roligt kravlet tættere ind på livet af os alle.
Tænk bare på, hvordan du i dag taler med Apples Siri-assistent på din iPhone eller iPad. Eller, hvordan Googles algoritme styrer dine søgninger i den, for dig, mest relevante retning med afsæt i din søgehistorik, Gmails, dine rutevisninger, mv.
Også i onlineshops, hos banker og forsikringsselskaber samt hos myndighederne møder du AI. Det kan være i form af mere eller mindre intelligente chat-bots, der bemander kundeservice.
Det er de mere simple sider af kunstig intelligens. Men der findes også mere ekstrem AI. Herunder systemer til ansigtsgenkendelse og derigennem social scoring, som kan benyttes til at kontrollere og overvåge mennesker.
Kunstig intelligens kan være nok så smart, men det står også klart, at der med AI’s fremmarch følger afgørende etiske spørgsmål, vi som samfund skal forholde os til både politisk og teknologisk.
For modsat de fleste mennesker, er en algoritme blottet for emotionel intelligens og etik. Derfor kan og vil algoritmer blive brugt med både gode og dårlige intentioner. Derfor er EU på vej med lovgivning for udvikling og brug af AI.
Kortlægning af konkrete tiltag
En endelige timing for AI-lovgivningen i EU ligger endnu ikke fast. Men den kommer.
Det vil meget snart stille danske virksomheder og myndigheder over for en vifte af nye compliance hensyn – på toppen af GDPR.
Det betyder, at de skal i gang med at afklare, hvordan de indtænker den kommende regulering i deres brug af AI. Herunder blandt andet definere de etiske aspekter, der følger med, når algoritmer rykker ind i mødet med borgere eller kunder.
Selv om EU’s AI-Act endnu er et udkast, giver det et klart billede af den kommende lovgivning. Derfor er det rettidig omhu allerede nu at forstå, hvordan den vil påvirke forretningen og driften.
Eksempelvis ved at kortlægge, hvilke skridt, der skal tages for at sikre god AI-skik og -compliance i forlængelse af det lovkrav om en dataetisk politik, som alle organisationer i dag er underlagt. Herunder afdække de regulatoriske, omdømmerelaterede og forretningsmæssige risici, der kan være, hvis ens AI-løsning skulle vise sig at have etisk slagside.
Her kan der være indledende hjælp at hente. For eksempel hos ISO, den internationale organisation for standardisering, der arbejder på standarder for fair og troværdig udvikling af AI.
Også EU’s egen Assesment List, der er udarbejdet af et særligt ekspertpanel, rummer guidelines omkring troværdig AI og giver et billede af, hvad det vil kræve at leve op en kommende lovgivning.
Man skal dog være opmærksom på, at EU-kommissionen lægger op til, at man løbende vil beslutte nye tiltag under AI-lovgivningen, der så ikke er omfattet af standarderne. Her er det virksomhedens eller myndighedens egen opgave at sikre, at de til enhver tid er compliant.
Fra klar gennemsigtighed til mere komplekse dokumentationskrav
Groft sagt lægger EU's lovudkast op til at inddele AI-løsninger på tre risikoniveauer – set i forhold til den risiko for misbrug, bias og direkte manipulation, de stiller brugerne over for. Henholdsvis løsninger med en uacceptabel risiko, en høj risiko og en minimal risiko.
Langt de fleste løsninger, vi møder herhjemme, for eksempel i kontakten med myndigheder eller i webshops, hører til sidste kategori. Altså minimal risiko.
Her oplister lovudkastet f.eks. intelligente chat-bots, men også kundesystemer, der sorterer kunder ud fra nogle prædefinerede karakteristika som alder, bopæl eller ægteskabelig status.
Men grænserne er hårfine. For anvendes sorteringen for eksempel af myndigheder til at udvælge, hvilke borgere, der kan få bestemte ydelser eller borgere, som skal kontrolleres i forhold til skatteindbetalinger, så er det pludselig højrisiko anvendelse af AI.
AI-løsninger defineret som minimal risiko vil i en kommende EU-lov primært blive mødt med krav om klar gennemsigtighed, så brugere og borgere er klar over, at de er i kontakt med en maskine.
Men vi møder også højrisikosystemer. Det kan være i mødet med banker eller forsikringsselskaber, som benytter AI til at vurdere kunders kreditværdighed. Eller i app’s og hardware, som anvender biometri til identifikation – så som ansigtsgenkendelsen på din mobiltelefon.
Her fokuserer EU’s lovudkast på at tøjle højrisikosystemer på en række områder. Henholdsvis biometrisk genkendelse, på uddannelsesområde, HR og rekruttering, kontrol med kritisk infrastruktur, politiarbejde, indvandring og asyl, retsområder og basale ydelser som velfærdsydelser.
AI-løsninger målrettet disse områder vil i fremtiden blive underlagt krav om teknisk dokumentation, risikohåndtering, kvalitetssikkerhed, datakvalitet, cybersikkerhed og gennemsigtighed.
Hertil kommer krav om menneskelig involvering, overvågning og rapporteringspligt.
Lovkravene vil gælde både de, der udvikler højrisikosystemer og de, som sætter dem i drift – også danske virksomheder og myndigheder. Og det er værd at bemærke, at ansvaret påligger den, der implementerer og anvender løsningen. Så man kan ikke fraskrive sig ansvar, fordi man som en europæisk virksomhed anvender en standard AI-teknologi fra f.eks. Microsoft.
AI med uacceptabel risiko forbydes
Den sidste kategori i lovoplægget består af decideret uønskede AI-systemer.
Her lægger Kommissionen op til, at en række løsninger forbydes. Listen omfatter blandt andet skadelige og manipulerende løsninger, der søger at udnytte brugerne.
Og naturligvis også video- og ansigtsgenkendelsesteknologi, som vi har set udbredt i Kina, hvor overvågning ned på individniveau er blevet udbredt.
Hertil kommer alle former for social scoring, som registrerer din færden og digitale adfærd som et grundlag for, hvilke offentlige ydelser, uddannelser, job eller køb, du har adgang til. Alt sammen noget, der ubetinget kan kategoriseres som udemokratisk brug af teknologi.
Uskyldens tidsalder er forbi
Med en kommende AI-lovgivning i EU er uskyldens tidsalder forbi, når vi taler udvikling og brug af kunstig intelligens i virksomheder og hos offentlige myndigheder.
Lige som vi så det, da GDPR i 2018 stillede nye svære krav til håndtering af personfølsomme data, vil en AI-lovgivning blive en stor udfordring for mange organisationer. Her vil de, der tidligt og dygtigt forbereder sig på de nye tider, være godt hjulpet.
I den forbindelse kan tre indledende tips hjælpe det forestående arbejde i gang:
- Tænk altid etik og gennemsigtighed ind i AI-løsninger fra starten og vær særligt opmærksom på bias i data. Dokumenter alle trin i udviklingsprocessen – fra de data, der udvælges til anvendelsen af AI hos slutbrugeren.
- Forstå konteksten og konsekvenserne ved anvendelsen af AI og skab den nødvendige tillid til datafundamentet. Modeller der anvendes til at forme data, skal være transparente og logiske. De skal kunne forklares – også selv om modellerne ikke er udviklet in-house, men ligger i standardteknologi fra et kendt it-selskab.
- Vær opmærksom på, hvordan AI-løsningen bliver anvendt i praksis. Husk, at datagrundlaget kan ændre sig over tid. Så overvåg og gentræn dine modeller løbende og når det bliver nødvendigt. Eksempelvis hvis performance falder. Det kan være tegn på ændringer i datagrundlaget, som føder ind i løsningen.
Allerede i dag bør både offentlige og private organisationer altså forholde sig til de etiske, moralske og snart lovmæssige problematikker, som AI-løsninger stiller dem selv og deres interessenter over for.
En ting er sikker. Er du for sent ude, når den nye virkelighed rammer, kan det blive dyrt - både i kroner og i form af mistet tillid hos dine kunder, brugere eller hos borgerne.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.