Kopie uit
https://security.nl/posting/837209:
Door Anoniem: Ze bedoelen dat ze geen andere mogelijkheid hebben om misbruik van kinderen op te sporen.
Zelfs misbruik van kinderen spoor je er niet mee op.
Nb. Ik wil niet de ernst en/of de problematiek van beeldmateriaal van kindermisbruik bagatelliseren, maar CSS werkt averechts m.b.t. het bestrijden van kindermisbruik.
Huidige stand van de techniekMet de huidige techniek kun je namelijk geen nieuw beeldmateriaal van kindermisbruik opsporen; eerst moet een mens (al dan niet toevallig) dat beeldmateriaal zien en het bij de juiste instanties aanmelden als zijnde beelden van kindermisbruik (dat is niet zonder risico, als jij die beelden ziet staat of stond er een kopie van op jouw toestel).
CSAMZodra, met een aanzienlijke onnauwkeurigheid, door zo'n instantie is vastgesteld dat het
daadwerkelijk om beeldmateriaal van
mogelijk misbruik van één of meer
écht bestaande kinderen gaat, kunnen er twee dingen gebeuren:
1) Getracht wordt dader(s) en/of slachtoffer(s) op te sporen. Indien dit arbeidsintensieve en tijdrovende onderzoek daadwerkelijk (in alle gevallen) plaatsvindt, en daaruit blijkt dat het
niet om één of meer minderjarige slachtoffers gaat, of dat het om beeldmateriaal gaat dat helemaal
geen misbruik toont (vrijwillige handelingen en, al dan niet vrijwillig gedeeld beeldmateriaal), dan
is het denkbaar dat het hier stopt (geen punt 2 dus).
2) Er wordt een
neurale hash (*) van elk beeld gegenereerd, waarna die hash(es) worden toegevoegd aan de database met neurale hashes van "bekend CSAM". Ofwel die database wordt gesynchroniseerd naar elke app (op elke smartphone) waarmee beelden kunnen worden uitgewisseld, ofwel elke app raadpleegt een centrale database
vóordat digitaal beeldmateriaal wordt gedeeld. Daarbij berekent de app zelf de neurale hash van het te verzenden beeldmateriaal, en checkt of die hash vóórkomt in de database. Daarbij kan die check zodanig plaatsvinden dat een resp. kleinere of grotere afwijking van de neurale hash is toegestaan (met resp. minder of meer valspositieven,
én resp. meer of minder valsnegatieven als gevolg).
Neurale hashes(*) Neurale hashes, ook wel fuzzy hashes of PhotoDNA™ genoemd, hebben geheel
niets met cryptografische hashes te maken. Cryptografische hashes zijn zo ontworpen dat slechts één gewijzigde bit in de input van de hashfunctie tot een zo groot mogelijke afwijkende hashwaarde leidt ("avalanche" effect). Neurale hashes zijn juist extreem flexibel: kleine, vaak nauwelijks zichtbare, maar soms goed waarneembare (radicale, zoals "cropping", maar ook het bewust zoeken naar hash-"collissions") wijzigingen in een beeld kunnen leiden tot een
identieke neurale hashwaarde (voorbeeld:
https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1#issuecomment-903094036).
HeksenjachtHet wordt dus een heksenjacht op
delers van
bestaand beeldmateriaal met, mogelijkerwijs toevallig, dezelfde neurale hash als in de database staat. Daarbij zal sprake zijn van zowel zeer veel valspositieven als zeer veel valsnegatieven (zie
https://security.nl/posting/797615) - waarbij de "overheid" aan de balansknop kan draaien.
Afname opsporing van kindermisbruikEen belangrijk gevolg van de invoering van CSS zal zijn dat er een verschuiving zal plaatsvinden van de (al véél te beperkte) capaciteit voor de opsporing van daders en slachtoffers van kindermisbruik, naar degenen die beeldmateriaal delen dat
mogelijk (seksueel) misbruik van echte kinderen toont.
MisbruikmogelijkhedenEen "meekijker" op elke smartphone maakt afschuwelijke surveillance mogelijk, en cybercriminelen wrijven al in hun handen bij dit vooruitzicht. Wat een ongelofelijk dom plan dat, onbegrijpelijkerwijs, maar
blijft rondzingen. Hoe dik zijn die betonnen platen die politici, zoals Yesilgöz, voor hun hoofd hebben?
Van CSS wordt de wereld vast een stuk beter (not).
(Short link naar deze reactie:
https://security.nl/posting/837224).