Kunstig intelligens er alle vegne og tidens absolut mest brugte buzz word. Det mulige udbytte af kunstig intelligens er da også nærmest enormt, hvis man skal tro markedsføringen og de mange eksperter.
Men at bruge kunstig intelligens er ikke så ligetil. Faktisk kan man ende med fuldstændig ubrugelige resultater, fortæller Francesca Rossi, AI-etikchef hos IBM til Computerworlds svenske søstermagasin ComputerSweden.
“De virksomheder, som ikke kan forklare, hvordan deres AI-modeller kommer frem til resultaterne, men bare bruger løs af dem, vil ikke være konkurrencedygtige”, siger hun.
At forstå bias er afgørende
Bias er et nøglebegreb i den forbindelse. For at forstå AI-modeller er det vigtigt også at forstå, hvad der påvirker modellerne. Man skal med andre ord forstå datas beskaffenhed.
Francesca Rossi peger som et eksempel på bias data fra en lønstatistik, hvor kvinder som regel har et lavere lønniveau end mænd. Her vil en AI-model måske nå frem til, at sådan skal det være.
Hvis man vil undgå, at data giver en uønsket påvirkning af en AI-model, skal man sørge for, at de udviklere, der arbejder på projektet, både forstår og kan se, om data påvirker modellen. På den måde kan man se bort fra de specifikke data eller erstatte dem med andre.
Love og regler påvirker også
Men det handler ikke kun om data. For eksempel kan lovregulering og andre typer regler påvirke de resultater, en AI-model kommer frem til.
“Det handler om at maksimere resultatet ved at kombinere indlæringsteknikker og etiske hensyn”, siger Francesca Rossi.
Etiske hensyn kan handle om at følge love og regler. En metode til at kombinere ‘frie data’ og regler kan være at kombinere machine learning og regelbaserede ‘logiske’ løsninger. Den slags bruges ofte inden for kunstig intelligens, men er på det seneste overtaget af machine learning og deep learning, skriver ComputerSweden.
Udfordringen er at kombinere data med regler på en måde, som ikke begrænser de resultater, man kommer frem til i en model ved hjælp af machine learning og deep learning.