I fremtiden vil Apple scanne alle billeder selskabets brugerne overfører til deres iCloud.
Målet er at opdage billeder af børneporno, og dermed overlevere oplysningerne til politiet. Men funktionen har fået massiv kritik for at kunne misbruges til at masseovervåge brugerne.
Det får nu Apple til at afvise, at funktionen vil kunne bruges af myndighederne til at opdage andet indhold end børneporno.
Det skriver erhvervsmediet CNBC med henvisning til et dokument, som Apple netop har offentliggjort om sagen.
Selskabet forklarer, at ingen myndigheder vil kunne bede Apple om at scanne for andet indhold end det, som funktionen er tiltænkt.
"Apple vil afvise et hvert forsøg på den type krav. Apples CSAM- (børneporno materiale, red.) funktionaliteter er alene bygget til at opdage CSAM-materiale opbevaret i iCloud, som er blevet defineret af eksperter i børns rettigheder," skriver Apple om kritikken og fortsætter:
"Vi har tidligere stået over for krav fra regeringer om at bygge og iværksætte funktioner, der ville underminere privatlivet for vores brugere, og vi er altid stålfast afvist den type krav. Vi vil fortsat afvise dem i fremtiden."
Kritikere af den nye funktionalitet frygter blandt andet, at enkelte lande vil indføre lovgivning der pålægger Apple at bruge funktionen til andre formål.
Apple har meddelt at funktionen løbende vil blive introduceret land for land, for at levet op til det enkelte lands lovgivning.