Apple vil fremover i USA implementere et system, der screener iCloud for billeder af børneporno og misbrug af børn, inden de bliver uploadet.
Det skriver Reuters.
Hvis systemet opfanger billeder af misbrug af børn, vil et menneske herefter gennemgå det og en rapport vil blive sendt til myndighederne.
Systemet er designet til at tjekke op mod en myndighedsdatabase med kendte billeder af børnemisbrug og ifølge Apple reducere falske positiver til en ud af en billion.
Databasen over kendte billeder af seksuelt misbrug af børn oversætter billeder til 'hash'-koder, der positivt identificerer billedet, men ikke kan bruges til at rekonstruere dem.
Apples nye system søger at imødekomme anmodninger fra amerikanske myndigheder om at hjælpe med at dæmme op for seksuelt misbrug af børn, samtidig med at de respekterer privatlivs- og sikkerhedspraksis.
Privacy-fortalere råber dog vagt i gevær og peger på, at systemet kan åbne døren for overvågning af politiske ytringer eller andet indhold på iPhones.
De fleste af de andre store teknologiudbydere - herunder Google, Facebook og Microsoft kontrollerer allerede billeder mod en database med kendte billeder af seksuelt misbrug af børn.