Onderzoeker achterhaalt algoritme van kindermisbruikscantool Apple en kan collision veroorzaken

News Broadband United States 19 AUG 2021
Onderzoeker achterhaalt algoritme van kindermisbruikscantool Apple en kan collision veroorzaken

Onderzoeker Asuhariet Ygvar heeft de code van Apples controversiële NeuralHash-algoritme weten te achterhalen. Ygvar zegt dat het algoritme sinds iOS 14.3 in het besturingssysteem van Apple verstopt zit. Hij ontdekte ook dat het mogelijk is om een collision te veroorzaken, waarbij het algoritme ook bij twee niet-matchende afbeeldingen een match geeft.

Volgens Ygvar kan het systeem van Apple, dat twee weken geleden werd aangekondigd, overweg met image resizing en compressie. Dat wil zeggen dat afbeeldingen dezelfde hash blijven houden als zij kleiner of groter zijn gemaakt of zijn gecomprimeerd. Afbeeldingen die zijn gedraaid of gecropt krijgen een andere hash. Deze herkent het systeem dus niet.

Het blijkt ook mogelijk om een collision te veroorzaken, ontdekte een gebruiker op GitHub. Daarbij creëren twee niet-gerelateerde afbeeldingen exact dezelfde hash. Dat zou er in theorie toe kunnen leiden dat iemand valselijk wordt beschuldigd van bezit van kinderpornografie. Volgens Apple was de kans daarop een op een biljoen.

Nieuwe tool Apple is controversieel

Al meteen na de aankondiging van de nieuwe tool kreeg Apple veel kritiek, onder meer in een open brief van ruim 5.000 critici. Apple zei in een reactie op de kritiek dat het bedrijf beloofde de tool alleen te gebruiken voor kindermisbruik.

In een reactie op het nieuws vertelt Apple tegenover onder andere The Verge dat de ontdekking geen reden tot zorg is. Het systeem zou rekening houden met collisions en het bedrijf benadrukte ook het bestaan van een serverside hashingalgoritme, dat losstaat van NeuralHash en waarvan de specificaties niet openbaar zijn. Een collision zou door dat systeem als fout herkend worden voordat hij naar moderators toegestuurd wordt. Bovendien wordt Apple pas bij 30 matches op de hoogte gebracht en zouden de moderatieteams van Apple en het National Center for Missing and Exploited Children, dat de hashdatabase levert, de foto's meteen herkennen als vals-positief. 

Related Articles