Je hebt een klacht over de onderstaande posting:
Even voor ieder die afvraagt waar gaat dit over? Neuralmatch/NeuralHash van Apple De redactie maakt vast wel een artikel hiervan maar goed tot die tijd bij deze is de post handig. In het kort Apple wil middels Child Sexual Abuse Material, (CSAM) database correlatie vinden tussen hashes binnen iCloud zogenaamd tegen kindermisbruik en verwante zaken daaraan. De artikelen zijn echter momenteel nog tegenstrijdig de een zegt enkel iCloud de ander spreekt ook over on device recognition. De whitepaper is nog niet uitgelekt dus alles wat beschreven is moet men nog met een korel zout nemen al is het wel iets om waakzaam op te zijn. De maatregel gaat blijkbaar veel verder dan wat nu in de nl media al verteld wordt. Als we amerikaanse media mogen geloven op dit moment. https://finance.yahoo.com/news/apple-detect-report-sexually-explicit-190011440.html?guccounter=1 Apple said images are analyzed on a user’s iPhone and iPad in the U.S. before they are uploaded to the cloud. The second feature warns users who conduct ...
Beschrijf je klacht (Optioneel):