Kunstig intelligens skal i fremtiden gennemgå de utallige gigabytes af billeder med potentiel børneporno eller mishandling, der ender hos politiet hos Metropolitan Police Department i London.
Det skriver The Telegraph.
Normalt er det betjente, der skal gennemgå de mange gigabytes af billeder og videoer med børneporno eller mishandling, og som senere skal bruges som bevismateriale.
Det er et hårdt job for psyken, og betjente ender ofte med psykologiske traumer efter to-tre år, men nu skal der benyttes kunstig intelligens.
“Vi er nødt til at identificere foruroligende billeder til forskellige typer lovovertrædelser. Det bliver gjort af mennesker i dag, og du kan selv forestille dig, hvad det gør ved mennesker efter flere år, men nu kan det ske via machine learning,” udtaler Mark Stokes, leder af Metropolitans digitale efterretningsafdeling til The Telegraph.
Londons politiafdeling benytter sig allerede af billedegenkendelsessoftware til at genkende våben, stoffer eller penge, men nøgenhed er svært at genkende for softwaren. Ofte bliver fotos af strande eller ørkener stemplet som pornografisk materiale.
Læs også: Den vigtigste pointe om kunstig intelligens: Sådan kommer du i gang
Data hos Amazon eller Microsoft?
Metropolitan Police forventer, at en kunstig intelligens vil kunne trænes til at genkende nøgenhed og børneporno i løbet af to-tre år.
De udvalgte fotografier skal stadig godkendes af et menneske, men det vil kunne skære markant ned på mængden af personer, der skal klare det psykisk hårde arbejde.
De mange billeder og videoer skal flyttes til en cloud-platform som Amazon Web Services eller Microsoft Azure, hvor it-giganternes regnekraft kan bruges til at bearbejde dataene.
Det er dog en kompliceret proces rent juridisk. Politistyrker er de eneste med juridisk hjemmel til at opbevare billeder med eksempelvis børneporno, og i realiteten vil det være ulovligt, hvis billederne ligger hos Google, Amazon eller Microsoft.
Også Facebook har store problemer med mængden at potentiel børneporno, mishandling, videoer af tortur og lignende, hvilket for alvor giver traumatiske problemer hos de ansatte. Det kan du læse mere om her hos The Guardian.
Læs også: “Det er fjerde eller femte gang, at kunstig intelligens ligger på toppen af Gartners hype cycle"