
Apple kan zijn automatische scan op kinderporno niet gebruiken in de Europese Unie omdat de AVG dat verhindert. Dat zegt een van de juristen van ICTrecht tegen BNR. Het adviesbureau is gespecialiseerd in dit soort juridische kwesties.
Apple gaat maatregelen nemen tegen de verspreiding van pornografisch materiaal met minderjarigen. Dit najaar krijgen de apparaten een software-update via iOS 15 en MacOS. Apple gaat op het apparaat zelf AI inzetten om foto’s te scannen of ze seksueel expliciet zijn. Doel is dat minderjarige gebruikers niet worden blootgesteld aan naaktfoto’s.
Daarnaast wil Apple beeldmateriaal controleren, door foto’s en video’s te vergelijken met afbeeldingen in een centrale database. Het US National Center for Missing and Exploited Children (NCMEC) houdt een database bij van kinderporno, om de verspreiding ervan tegen te gaan. Deze plannen zijn er nu alleen in de VS.
Deze stap is meteen bekritiseerd. Het leidt tot ethische vragen of de overheid kan bepalen welke foto’s een burger op zijn telefoon mag hebben. De technologie zou breder kunnen worden gebruikt door regeringen, met andere categorieën foto’s voor nieuwe vormen van repressie. Apple zegt niet mee te zullen werken aan repressie van regeringen.
ICTrecht stelt dat het niet de taak is van Apple om de detective uit te hangen. Justitie is een overheidstaak. Als het bedrijf diensten zou leveren, moet dat bij wet worden geregeld en worden gecontroleerd door politie en justitie.