Microsoft fjerner nu helt en række automatiserede ansigtsanalyse-værktøjer fra selskabets kunstig intelligens-tjenester.
Det sker ifølge New York Times, som led i et igangværende Microsoft-projekt, der skal sikre, at selskabets kunstige intelligens-løsninger bliver anvendt ansvarligt.
Værktøjerne hævdes blandt andet at kunne fastslå en persons alder, køn og emotionelle tilstand gennem analyser af ansigtstræk og mimik, men gennem de seneste har denne type funktioner været ramt af hård kritik fra eksperter og aktivister.
Ifølge kritikerne rummer værktøjerne privacy-problemer, og samtidig bliver de kritiseret for at være upålidelige og have slagsider, der betyder, at de kan foretage fejltolkninger, når de analyser ansigter på tværs af køn og etnicitet.
Har udelukkende to køn
Det er blandt andet den kritik, som Microsoft har lyttet til, lyder det fra Natasha Crampton, der står i spidsen for Microsofts tiltag for at sikre ansvarlig brug af kunstig intelligens.
Eksempelvis er Microsofts værktøj til at kønsbestemme folk via ansigtsgenkendelse binært, og dermed rummer det udelukkende kategorierne mand og kvinde.
“Det er ikke er i overensstemmelse med vores værdier,” siger hun til New York Times.
Ifølge New York Times er det dog især det Microsoft-værktøj, der forsøger, at fastslå personers emotionelle tilstand, som er problematisk.
“Der er store geografiske, kulturelle og individuelle forskelle på, hvordan personer udtrykker sig,” siger Natasha Crampton, til avisen.
Kan hjælpe blinde
Flere værktøjerne vil potentielt set kunne være til gavn for folk, der er blinde eller har nedsat syn. Ikke desto mindre har Microsoft vurderet, at værktøjernes ulemper overstiger fordelene.
En række værktøjer relateret til ansigts og stemmegenkendelse vil dog forsat være tilgængelige for softwareudviklere, men det vil i fremtiden kræve en særlig godkendelse fra Microsoft, hvis man ønsker at få adgang til dem.
Eksempelvis har en virksomhed som Uber brugt ansigtsgenkendelse til at verificere, at en given chauffør er identisk med den person, som også er registreret i selskabets database.
På samme måde indfører Microsoft også en ansøgningsproces for adgangen til selskabets værktøj Customer Neural Voice, hvor kunstig intelligens kan kopiere virkelige personers stemme.
Det vil eksempelvis kunne misbruges til at skabe manipulerende lydklip, hvor det fremstår som om en personer siger noget, som vedkommende aldrig har sagt.
Ifølge New York Times vil nye funktionaliteter ligeledes kræve en godkendelses af et særligt etik-udvalg hos Microsoft, hvis det vurderes, at de vil kunne risikere at blive brugt til diskrimination i forbindelse marginaliserede gruppers adgang til arbejdsmarked, uddannelse, finansielle ydelser eller sundhedsvæsenet.