Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Explainable AI, Trusted AI, Trustworthy AI og Responsible AI er mere eller mindre flere sider af samme sag.
Begreberne bruges i flæng, og det kan skabe en uklarhed omkring, hvad det er og hvorfor det har værdi at beskæftige sig med.
Ikke desto mindre er det områder, der retmæssigt optager mere og mere af debatten omkring AI.
For det handler ikke bare om hvad vi kan med AI – men snarere om, hvordan vi kan gøre det godt og gøre det rigtigt, skalerbart og effektivt.
Er dokumentationen på plads
Responsible AI ikke ”responsible”, hvis den ikke er ”explainable”, altså at man kan forklare hvad man laver, og hvad det er baseret på.
Det omfatter blandt andet svar på hvilke data, man analyserer og træner modellerne med, hvorfor er modellerne bygget op som de er, hvad gør man for at vedligeholde dem, hvilke mønstre lærer algoritmerne og hvilke svar giver de.
Det handler i det store perspektiv om at bevare kontrollen og at kunne dokumentere adfærd, processer, beslutninger og resultater.
Det kan dermed argumenteres, at også Data Governance og ModelOps med rimelighed bør indgå i debatten, hvilket jeg dog ikke vil gøre meget ud af her.
AI rykker grænserne for hvad teknologien kan – og ikke mindst bør anvendes til. Derfor er Responsible AI så væsentligt.
Blind tillid er ikke løsningen
Der er en særdeles god mening med at både EU og mange enkelte regeringer og lande omkring i verden, udvikler rammer for arbejdet med AI.
Vi skal og bør kunne forstå, hvad det er at AI bidrager med, på hvilken måde, og hvad resultatet er.
Alt andet er en sikker vej til at skade arbejdet med AI og alt det positive, som det kan bringe med sig. Som med al ny teknologi er det et tveægget sværd, det kan anvendes både godt og dårligt.
Algoritmerne kan meget på mange områder. Men det er ikke det samme, som at man skal have blind tillid til dem.
Eftersom de ikke har følelser eller social forståelse, kan deres adfærd, deres forslag og forudsigelser de vil fremkomme med, vise sig at være alt andet end acceptable.
Dette er ikke mindst tilfældet når AI lærer af de forkerte, så at sige. Men hvem er de forkerte, og hvad er det rigtige at lære?
Lad AI danne sin egen mening
Interessant nok er det også muligt at påvirke ellers Reponsible AI gennem det helt fundamentale: Valg af data.
Vi risikerer at påføre AI vores forudfattede meninger og fordomme gennem dårlige datasæt, og dermed forstærke fejlopfattelser.
Vi ser det gennem skævvridning af data, mangel på diversitet og inklusion, bevidst eller ubevidst bias.
Men det er mennesker der står bag de valg.
Responsible AI handler nemlig helt grundlæggende om at være ansvarlig for hele processen fra input til output videre til den udvikling og læring AI og herunder machine learning tager til sig og udvikler sig på baggrund af.
Vi kan ikke bare kigge på, når det er sat i gang.
Ingen AI uden etik
Af den årsag har EU opstillet tre punkter, som AI bør leve op til for at kunne være troværdig.
1) Først og fremmest skal anvendelsen og algoritmen leve op til gældende love og regler.
2) Dernæst skal den efterleve etiske principper og værdier.
3) Og endelig skal de være robuste i forhold til anvendelsen.
AI kan være skadelig, selv når den anvendes med de bedste intentioner. Er der et anstrengt forhold mellem disse tre hovedområder, er der grundlag for bekymring.
Selvom Explainable AI fortjener en god forklaring, er det ikke nødvendigvis nemt at give den.
Det er dog et faktum at arbejdet med AI til hver en tid bør være gennemsigtigt.
AI er tilgængelige superkræfter, og som det så rigtigt er blevet sagt: “Where there is great power there is great responsibility”.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.