Af Natasja Broström og Aksel Brinck, Alt om Data
Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.
Forestil dig at ankomme i lufthavnen, gå gennem sikkerhedskontrollen og sætte kursen mod gaten uden overhovedet at have haft papirer fremme, uden at have talt med et menneske eller taget skoene af og på. Visionen er ikke så langt ude i fremtiden, som du måske tror.
Lufthavne verden rundt får i disse år scannere, kameraer og biometriske enheder, som ved hjælp af algoritmer kan beregne, sammenligne og bruge indsamlede data til at blive endnu bedre til at udføre en given opgave. Det er kunstig intelligens, men den særlige variant, hvor systemerne bliver klogere, jo mere de arbejder på opgaven – også kaldet deep learning eller maskinlæring.
Den stigende brug af selvlærende enheder skyldes især, at vi har fået computerkraften til det. I 2012 krævede Googles Brain-projekt 16.000 mikroprocessorer-kerner for at køre algoritmer, som var i stand til på egen hånd at identificere en kat. I 2018 præsenterede kinesiske Huawei to AI-chipsæt, Ascend 910 og 310, som er i stand til at beregne op til 512 milliarder operationer i sekundet. Firmaets chips skal anvendes i alt fra smartphones, der for eksempel selv kan sortere dine billeder, til servere, der så at sige lærer sig selv at sortere i indkomne informationer.
Ansigtet opmåles i tolden
Denne sommer planlægger Londons Heathrow-lufthavn at installere biometriske scannere, som opmåler menneskelige træk gennem en række punkter, og i USA har lufthavne som JFK og Los Angeles International Airport fået scannere, som afsøger det offentlige i jagten på mulige trusler. De indsamlede data håndteres ved hjælp af maskinlæring, som vurderer gestik og ansigtstræk. Processen foregår hurtigere, end når en lufthavnsansat tjekker, at ansigtet svarer til det i passet, eller vurderer, om manden ved sodavandsautomaten har tænkt sig at efterlade sin håndtaske.
Fremover vil vi få flere robotbetjente check-in-skranker, og vi vil måske i tolden få målt vores ansigtstræk via punktscanning. Systemerne arbejder i tandem med tjek af fingeraftryk og irisscanninger, som allerede bruges i flere internationale lufthavne. Et af systemerne er udviklet af Evolv Technology. Firmaets platform kombinerer kamera, ansigtsgenkendelse og helfigur-kropsscanner. Ved hjælp af maskinlæring kender systemet forskel på en pistol og en tube solcreme, og vurderingen sker på en hundrededel af et sekund. Op til 900 mennesker kan passere gennem et AI-styret sikkerhedstjek i timen uden at skulle tømme lommer, fjerne livremmen eller tage den bærbare frem.
AI bruges også på gaden. Enheder, som kan aflæse vores krop og ansigt, hjælper blandt andet den offentlige trafik ved at fremskynde køer. I stedet for papirlapper, tryk på automatknapper og famlen med kreditkort, aflæser et computerkamera nummerpladerne og kan på et splitsekund afgøre, hvilke skygger på en hurtigt affotograferet plade der giver hvilke tal. Betalingen ordnes efterfølgende via en app.
25 slags gangart
Der, hvor AI for alvor kommer på arbejde, er håndteringen af individuelle personer. Vores positur, gangart, ansigtstræk og udtryk er forskelligt, og i kombination giver det uanede mulige udfald. Alene vores gangart har 25 forskellige grundtræk. Visse programmer, for eksempel det europæiske iBrderCtrl, testes for tiden ved fiktive grænseovergange, hvor en person af en virtuel grænsevagt bliver adspurgt om indholdet i sin kuffert.
Imens analyserer et webcam personens ansigtsudtryk. Systemet genkender mønstret for løgn, blandt andet flakkende blik, hvilket udløser et interview hos en menneskelig grænsevagt. Indtil videre ligger succesraten på 76 procent.
Ansigtet registreret som et tal-landskab
Alle former for ansigtsgenkendelse fungerer som udgangspunkt ens – også i en smartphone, eller når du bliver tagget på Facebook. En sensor lægger et mere eller mindre finmasket net af punkter ud over ansigtet. Hvert punkt tildeles en talstørrelse. Det kunne ligeså godt være et landskab, for blandt de vigtige målepunkter er afstanden mellem øjne, mellem pande og hage og den skiftende lysstyrke hen over ansigtslandskabet som følge af mere eller mindre skygge. Herefter benyttes forskellige metoder.I en af analysemetoderne nøjes systemet med at udvælge nogle af ansigtspunkterne – ligesom vi mennesker ikke analyserer et helt ansigt for at genkende en person. Denne udvælgelse kaldes embedding. De udvalgte tal sammenlignes med eksisterende talprofiler på måske millioner af ansigter, indtil der efterhånden er et match. Det er den neurale del, eller deep learning. Både udvalget af målepunkter og sammenligningen sker, uden at programmører eller andre mennesker kan følge den valgte vej i processen. Præcis, hvilke målepunkter og sammenligninger, der førte frem til resultatet, kan variere og kan ikke uden videre efterspores.
I et sandt maskinlæringssystem vil ansigtsgenkendelsen lære af sine fejl og succeser undervejs og med tiden hurtigere finde det rette ansigt, også selvom det måske kun er set i profil, smiler eller er blevet ældre.
Allerede i dag bruges avanceret krops- og ansigtsaflæsning til at holde øje med folk på gaden. I Dubai måler AI-kameraer folks sindstilstand ud fra analyse af ansigtsmimik. En anden metode er at bruge AI-kameraer til at forudsige hændelser og handlinger. Er den gamle mand på hjørnet ved at få et hjerteanfald, og skal hjælp tilkaldes omgående?
Teknologi ser følelser
Ifølge adjunkt ved Stanford University, Michal Kosinski, er det allerede i dag muligt ud fra biometrisk ansigtsmåling at afgøre, om en person er homoseksuel eller ej. Kosinski, som forsker i brugen af AI til at aflure en persons psykologiske træk, satte en computeralgoritme til at aflæse og vurdere 35.000 affotograferede ansigter for at udtrække fællestræk.
De testedes seksuelle præference var kendt af forskerne, men ikke af computeren. Under-søgelsen, som blev offentliggjort i Journal of Personality and Social Psychology, mente at kunne påvise, at bøsser har mere feminine træk end det maskuline gennemsnit, og lesbiske har større hagepartier end det feminine gennemsnit(!). Som beskrevet i avisen The Guardian opnåede Kosinski en nøjagtighed på op mod 91 procent.
Her vil du opleve den nye virkelighed
Ansigtsgenkendelse breder sig til en lang række områder. Udviklingen går nu så stærkt, at selv Microsoft har advaret mod den og ønsker teknologien underlagt lovgivning. Her er nogle eksempler på kommende anvendelsesområder:
Fartbøder – Gadekameraer, for eksempel ført af droner, måler køretøjers hastighed og sender automatisk bøde til bilens ejer ved for høj fart.
Røveri – Intelligente kameraer afgør, at bestemt ansigtsmimik sandsynligvis betyder, at en person gør sig klar til at overfalde en anden.
Forsvundne personer – Demente kan findes igen, ved at kameraer aflæser ansigter og genkender den forsvundne persons ansigtstræk.
Nemmere check-in – Ansigtsscannere aflæser punkterne i passagerernes ansigt og udskriver boardingkort.
Kundeservice – Ai-kameraer i butikkerne aflæser folks ansigter for at bedømme kundetilfredshed.
Men AI kan meget mere. Kosinski vurderer, at fremtidens AI-teknologi også kan bruges til at detektere følelser, intelligenskvotient og disponering for kriminel adfærd. Dette sker til dels i Kina, hvor 176 millioner overvågningskameraer, ifølge Huffington Post, er sat op i det offentlige rum. Tallet vil stige til 626 millioner i 2020.
Uønskede fumlegængere
Ifølge sitet bliver folk, ud fra deres opmålte adfærd, vurderet som mulige (naturligvis uønskede) fumlegængere, og på offentlige toiletter registreres brugerne med ansigtsaflæsning, når de beder maskinen om at udlevere mere toiletpapir end de tilladte cirka 30 centimeter.
Kinas statsråd, det vil sige centralregeringen, erklærede i 2017, at landet skal være verdensledende inden for forskning og udvikling af AI inden 2030. Landets AI-industri vurderes til at blive op mod 150 milliarder dollar værd. Hua-weis AI-telefoner er allerede første skridt ned ad den vej.