Privacy - Wat niemand over je mag weten

Het risico van E2EE

24-05-2023, 12:00 door Erik van Straten, 21 reacties
Ik bedoel niet de techniek, maar spraakverwarring door ongedefinieerde terminologie die totaal verschillend wordt uitgelegd, afhankelijk van aan wie je het vraagt (net zo als bij "privacy").

Op 5 juli 2022 nam de Tweede Kamer, met zeer ruime meerderheid, een motie aan met effectief de volgende inhoud:
constaterende dat de Europese Commissie met haar voorstel COM/2022/209 inhoudelijke controle van berichten wil verplichten en daarmee end-to-endencryptie en het postgeheim onmogelijk lijkt te maken;

constaterende dat het briefgeheim gewaarborgd is in artikel 13 van de Nederlandse Grondwet;

verzoekt de regering end-to-endencryptie in stand te houden en Europese voorstellen die dat onmogelijk maken niet te steunen,

In https://www.security.nl/posting/769024/Kabinet+voert+motie+uit+over+het+in+stand+houden+van+end-to-end+encryptie#posting769117 waarschuwde ik:
LET OP: dat de minister van J&V deze motie overneemt, betekent niet dat zij tegen "CSS" (client-side-scanning) is.
En zo geschiedde.

Uit de PDF waar https://www.security.nl/posting/797228/Spaanse+overheid+voor+verbod+op+end-to-end+encryptie+in+Europese+Unie van gisteren naar verwijst:
THE NETHERLANDS
[...]
Currently, subject to further research regarding their successful deployment on a large scale, there are two technologies which may allow for automatic detection of CSAM while at the same time leaving end-to-end encryption intact. They are described in the Commission's impact assessment on solutions where there is no third party inyolved. The way they work is that CSAM is detected before the material is encrypted and sent to one or more recipients. This technology, in a way, functions somewhat similar to how spam is detected or 'auto-correct" dictionaries function on most phones cs today. {2}
[...]
That is why, during previous sessions of the LEWP on October 19 and November 24, as well as during its last session held in January, the Netherlands proposed adding the following text to article sub 3 of the Regulation:

      "no technologies that make end-to-end encryption impossible"

On 5 July 2022, our Parliament has adopted a resolution specifically instructing the Dutch government not to accept proposals which make end-to-end encryption impossible. Our parliament and govemment wish to prevent the practical outcome by which -even if this was wholly unintended from the outset - companies are forced to disable their end-to-end encryption because it is incompatible with technology (i.e. software offered by or through the EU-centre) necessary to detect CSAM. It is, therefore, of key importance to the Netherlands that this concern is addressed in the Regulation itself.
[...]
{2} This paragraph, inter alia, describes the possibility of detecting new material through the technologies provided for in the impact assessment while leaving end-to-end encryption intact. As described elsewhere, the Netherlands has serious concerns regarding the detection of new material as well as the range of materials falling within the scope of the detection order (e.g. the inclusion of "voice" in article 2 (s) of the Regulation).
[...]

Kortom, "The Netherlands" vindt CSS prima zolang ED2EDAE (End Device to End Device Authentication and Encryption), oftewel transportbeveiliging tussen onderling geauthenticeerde apparaten (hopelijk van de juiste gebruikers), niet wordt aangetast (zie ook https://security.nl/posting/769069). Dit naast dat "The Netherlands" serieus bezorgd is of illegaal "nieuw materiaal" en spraak (grooming) betrouwbaar van onschuldige informatie kunnen worden onderscheiden.

Los van dat het hier om symtoombestrijding gaat waarmee kindermisbruik eerder toe- dan af zal nemen (we verspillen onze tijd en energie), en ik ervan overtuigd ben dat deze techniek voor veel uitgebreidere surveillance zal worden ingezet, beperk ik mij tot de volgende vragen aan de lezers:

1) Wordt hier (opnieuw) een aangenomen kamermotie niet uitgevoerd, of was die motie onvoldoende duidelijk? Immers, de olifant in de kamer hier is in hoeverre "E2EE" wordt ondermijnd door CSS.

2) Vindt een democratisch gekozen meerderheid van "The Netherlands" het acceptabel dat jij, voor elke brief die je wilt versturen, de envelop pas mag dichtlikken en posten nadat een gedelegeerde van de overheid in jouw woonkamer de brief heeft gelezen en (al dan niet terecht) heeft vastgesteld dat er niets onoorbaars in staat? En mocht die controleur iets (op basis van onduidelijke en per land verschillende criteria) niet oké vinden, jij als verdachte wordt geregistreerd - voor onbekend hoe lang (enorm gebrek aan rechercheurs en rechters) en onduidelijk welke consequenties dat allemaal voor jou gaat hebben (wellicht afsluiting van jouw iCloud of Google cloud accounts - met potentieel enorme impact)?
Reacties (21)
24-05-2023, 12:09 door Anoniem
1. weet ik niet.
2. Ik vind dit in ieder geval absoluut niet.

Ik vraag me dan ook af wat voor idioten het nou zijn die dit willen invoeren...
24-05-2023, 12:46 door Anoniem
Wat ik in deze discussie mis, is het feit dat end-to-end encryptie kinderen juist beschermd. Ongewenste pottenkijkers kunnen zo immers niet zomaar met de chats van de kinderen meegluren. Daarom raad ik ouders het gebruik van WhatsApp of liever Signal aan, en druk hen op het hart de geringe risico's gewoon met hun jonge kinderen te bespreken.

Liever een vrij, blij en goed voorgelicht kind, dat tijdig om hulp roept, dan een onnodig bang gemaakte volwassene.
24-05-2023, 13:24 door Anoniem
Door Erik van Straten: 1) Wordt hier (opnieuw) een aangenomen kamermotie niet uitgevoerd, of was die motie onvoldoende duidelijk? Immers, de olifant in de kamer hier is in hoeverre "E2EE" wordt ondermijnd door CSS.
Technisch kan je twee eindpunten aanwijzen waartussen de encryptie niet wordt aangetast. Maar de motie maakt duidelijk dat het om het waarborgen van het briefgeheim voor digitale post gaat. Dat bescherm je niet door iedere brief te inspecteren voordat de envelop wordt dichtgeplakt en ter verdediging te roepen dat het pas een brief is nadat de envelop is dichtgeplakt. De essentie is niet de techniek of waar precies in de verwerkingspijplijn van de brief de inspectie plaatsvindt, de essentie van briefgeheim is dat die inspectie niet mag gebeuren. De motie was in mijn ogen voldoende duidelijk en daar wordt omheen gesjoemeld met dit soort redenaties.

2) Vindt een democratisch gekozen meerderheid van "The Netherlands" het acceptabel dat jij, voor elke brief die je wilt versturen, de envelop pas mag dichtlikken en posten nadat een gedelegeerde van de overheid in jouw woonkamer de brief heeft gelezen en (al dan niet terecht) heeft vastgesteld dat er niets onoorbaars in staat?
Nee, dat is een grove schending van het briefgeheim en absoluut niet oké.
24-05-2023, 13:40 door Anoniem
1
De motie wordt wel uitgevoerd, maar er wordt bewust weggekeken naar het bespioneren Binnen In je apparaat.
2
De kamerleden zijn denk ik onnozel, want ze beseffen kennelijk niet dat ook zij een gluurder naar binnen halen op hun eigen apparaten. Ik denk dat ze anders gaan reageren als ze zich dit bewust worden.

Groeten
Een noob.
24-05-2023, 16:20 door Anoniem
Door Erik van Straten:1) Wordt hier (opnieuw) een aangenomen kamermotie niet uitgevoerd, of was die motie onvoldoende duidelijk? Immers, de olifant in de kamer hier is in hoeverre "E2EE" wordt ondermijnd door CSS.
De encryptie blijft in stand, de enige weg om dan nog bij de data te kunnen is CSS, <sarcasm>mogelijk gemaakt door mooie gesloten ecosystemen en apps</sarcasm>. Is dat ondermijning? Zo zou je het kunnen zien. Het enige wat ze beloofd hebben is dat ze niet tegen E2EE of encryptie in algemene zin zijn, met deze omweg kunnen ze hun beloftes waarmaken en toch mee gluren.

2) Vindt een democratisch gekozen meerderheid van "The Netherlands" het acceptabel dat jij, voor elke brief die je wilt versturen, de envelop pas mag dichtlikken en posten nadat een gedelegeerde van de overheid in jouw woonkamer de brief heeft gelezen en (al dan niet terecht) heeft vastgesteld dat er niets onoorbaars in staat? En mocht die controleur iets (op basis van onduidelijke en per land verschillende criteria) niet oké vinden, jij als verdachte wordt geregistreerd - voor onbekend hoe lang (enorm gebrek aan rechercheurs en rechters) en onduidelijk welke consequenties dat allemaal voor jou gaat hebben (wellicht afsluiting van jouw iCloud of Google cloud accounts - met potentieel enorme impact)?
Ik niet in ieder geval. Eens in de zoveel tijd hebben we een proces waarbij iedereen in een klein hokje op een groot vel papier met een rood potlood een vakje rood mag maken. Blijkbaar heeft een meerderheid een vakje rood gekleurd bij personen/partijen die dit prima vinden, helaas krijg je de regering waar de meerderheid van het volk om vraagt.
25-05-2023, 11:36 door Erik van Straten
Dank voor de reacties! Interessant om te zien dat een klein aantal reageerders er zo verschillende meningen op kan nahouden (vooral m.b.t. punt 1).

Zou de motie bewust zo dubbelzinnig zijn opgesteld, om zo een overgrote kamermeerderheid te behalen, of zouden de opstellers echt niet gesnapt hebben dat mensen zoals ik, naast niet willen dat transportversleuteling wordt verboden, ge-achterdeurd of op andere wijze wordt verzwakt, ook geen CSS willen?

M.b.t. CSS: onderzoekers van het Londonse Imperial College hebben, deze week, op het "44e IEEE Symposium on Security and Privacy (San Francisco)" onderzoek gepresenteerd waarin zij laten zien dat het met deze techniek (CSS via "Perceptual hashing", ook bekend als "neural hashing" en "PhotoDNA") mogelijk is om gezichten op foto's te herkennen. Met andere woorden, als het algoritme op een foto op jouw device een "gezochte persoon" herkent (in plaats van kindermisbruik) zal ook deze foto naar de autoriteiten worden gestuurd. Meer info daarover:

Algemeen: https://www.imperial.ac.uk/news/244952/tech-mandated-online-safety-bill-could/

Toelichting: https://twitter.com/yvesalexandre/status/1661012369747873795

Publicatie van Shubham Jain, Ana-Maria Cretu, Antoine Cully, and Yves-Alexandre de Montjoye (Imperial College London) getiteld "Deep perceptual hashing algorithms with hidden dual purpose: when client-side scanning does facial recognition": https://imperialcollegelondon.box.com/s/xv46sdud6kvhpkc8etrkjwbo7mixki26 (ik weet niet hoe lang deze link blijft werken).
25-05-2023, 13:18 door Anoniem
Het is best interessant om artikel 13 van de grondwet ernaast te houden:

1. Ieder heeft recht op eerbiediging van zijn brief- en telecommunicatiegeheim.
2. Beperking van dit recht is mogelijk in de gevallen bij de wet bepaald met machtiging van de rechter of, in het belang van de nationale veiligheid, door of met machtiging van hen die daartoe bij de wet zijn aangewezen.
https://www.denederlandsegrondwet.nl/id/vlxups19tvy3/artikel_13_briefgeheim
Er kan dus wettelijk geregeld worden dat het recht wordt ingeperkt, maar dat moet altijd gepaard gaan met een machtiging van de rechter of een bevoegde instantie. Dus op basis van het briefgeheim is het onmogelijk dat dit altijd gebeurt, op basis van een wetsartikel maar zonder dat er een machtiging geregeld moet worden.

Merk trouwens ook op dat sinds vorig jaar telecommunicatiegeheim wordt genoemd in plaats van telefoon- en telegraafgeheim. E-mail, chat etc. worden er tegenwoordig door gedekt, dus.

Als je redeneert dat het inspecteren van een bericht direct voordat het bestuurt wordt niet onder het briefgeheim valt dan loop je meteen aan tegen artikel 10 van de grondwet over privacy. Hier citeer ik een toelichting in plaats van het artikel zelf:
In dit artikel staat dat iedereen het recht heeft om in de beslotenheid van zijn persoonlijke levenssfeer met rust te worden gelaten en om bijvoorbeeld niet te worden afgeluisterd.

De persoonlijke levenssfeer omvat onder meer:

- het huis
- de briefwisseling
- de communicatie via telefoon en andere communicatiemiddelen
- het recht om niet te worden bespied of afgeluisterd
- het recht op zorgvuldige behandeling van persoonlijke gegevens
- het recht op eerbiediging van het innerlijk leven
- het recht op eerbiediging van de lichamelijke integriteit

De wet kan in bepaalde gevallen dit recht beperken, bijvoorbeeld bij de opsporing van misdaden. Ook maakt de wetgever regels voor het gebruik van privacygevoelige gegevens.
https://www.denederlandsegrondwet.nl/id/vlxups19tky0/artikel_10_privacy

Brief en communicatie worden hier ook weer genoemd, dit overlapt dus met artikel 13. Het is ook duidelijk dat bespieden afluisteren niet mag. Bij het beperken van dat recht voor het opsporen van misdrijven lijkt het me stug dat afluisteren/bespieden altijd en bij iedereen gedaan mag worden. Dat is toch iets dat een officier van justitie op basis van een verdenking toestaat. Verdenkingen baseren op het bespieden van iedereen gaat heel veel verder dan het bespieden van iemand op basis van een verdenking. Dat is een erg zware maatregel die een erg zware rechtvaardiging nodig heeft.
27-05-2023, 00:37 door Erik van Straten - Bijgewerkt: 27-05-2023, 00:40
Directe link naar deze reactie: https://security.nl/posting/797615.

@Anoniem 25-05-2023, 13:18: dank voor jouw reactie! Voorstanders van CSS zullen aanvoeren dat kinderen ook het (grond-) recht hebben om niet te worden misbruikt (dat zullen weinigen betwisten, ik in elk geval niet) - maar zien niet in dat dat CSS niet gaat helpen tegen kindermisbruik: integendeel.

Ook kunnen voorstanders van CSS claimen dat er helemaal geen sprake is van "afluisteren/bespieden altijd en bij iedereen": immers, het is software op jouw device die dat doet. Uitsluitend als jij (bekende of zelfs nieuwe) beelden van kindermisbruik probeert te verzenden, zou die software alarm slaan. Maar ook dat klopt niet: er wordt namelijk niet van cryptografische hashes gebruik gemaakt om "foute beelden" te detecteren, maar -voor zover ik weet- van "Neural hashes" (ook bekend als PhotoDNA of Perceptual hashes). En die werken totaal anders dan cryptografische hashes.

Hieronder heb ik mijn gedachten en bevindingen hierover zoveel mogelijk op een rijtje gezet. Daarmee is het een extreem lang verhaal geworden, maar hiermee staat veel informatie voor de geïnteresseerde lezer bij elkaar.

Cryptografische versus Neurale hashfuncties
Bij het gebruik van een voldoende lange cryptografische hash en redelijke gedetailleerde foto's (met een voldoende pixels) zullen valspositieven (een andere foto die toevallig dezelfde hash oplevert, een cryptografische hash collission) gigantisch zeldzaam zijn. Probleem: de kleinste wijziging van (of toevoeging aan) een fotobestand leidt tot een andere cryptografische hash - zonder dat je daar iets van hoeft te zien op het beeld.

De aanname is dat kwaadwillenden bewust foto's van kindermisbruik zullen bewerken om detectie te voorkómen (wijzigingen kunnen ook onbewust plaatsvinden, bijv. doordat apps automatisch de resolutie verlagen en/of de "lossy conpression" van beelden verhogen om de bestandsgrootte te verkleinen).

Reeks van kleine getallen per foto
Om ondanks wijzigingen een foto toch te kunnen "herkennen", wordt een "perceptual hash" gebruikt die "kijkt" naar het beeld, de bitmap van een foto. Meestal wordt gebruik gemaakt van een Discrete Cosine Transform (https://en.wikipedia.org/wiki/Discrete_cosine_transform) waarbij, sterk vereenvoudigd, de foto in kleine blokjes wordt opgesplitst en van elk blokje een representatief getal wordt afgeleid.

Gebruikelijk is het om die kleine getallen in hexadecimale vorm achter elkaar te plakken, waardoor het resultaat lijkt op een cryptografische hash - maar dat echt niet is. Effectief is het een reeks bits die je kunt vergelijken met de reeks van elk van de bekende "foute" plaatjes.

Van zo'n reeks kun je bovendien aangeven hoeveel bits er mogen afwijken van het origineel (die afwijking wordt de "Hamming distance" genoemd: https://en.wikipedia.org/wiki/Hamming_distance). Zoiets is overigens ondenkbaar bij cryptografische hashes, omdat een kleine wijziging van de input tot een onvoorspelbare wijziging van de gehele output leidt.

Begrijpelijke uitleg van neural hashes, oftewel "fuzzy matching", vind je in https://medium.com/@darwinium/image-similarity-pdq-algorithm-for-real-time-similarity-comparison-against-image-store-2a73452b2bfa. Daaruit:
Transformations that result in similar hashes include: File format change, Quality reduction, Resizing, Rotations and Mirrors (when additional hashes compared), Noise or Filter applied, Small Crops and Shifts, Light Watermarks and Logos.

Niet kiezen tussen twee kwaden: je krijgt beide
De kwaden hier zijn valspositieven én valsnegatieven. De lengte (het aantal bits) van de (neurale) hash ligt meestal vast, maar je kunt de Hamming distance wel kiezen. Hoe groter de Hamming distance, hoe meer een beeld mag afwijken van het origineel om toch nog te kunnen "zien" dat het om een bewerking van het origineel gaat. Maar ook hoe meer valspositieven je krijgt.

Je moet dus een balans vinden tussen:
• Enerzijds een "te groot" aantal valsnegatieven (beeld met kindermisbruik niet herkend door beperkte beeldmanipulatie, zoals cropping, verlagen van de resolutie, radicale wijzigingen buiten het "interessante" deel en degelijke), en

• Anderzijds een "te groot" aantal valspositieven (beeld zonder kindermisbruik heeft toevallig een neurale hash met acceptabele Hamming distance t.o.v. de neurale hash van een verboden plaatje).

0,01 procent valspositieven?
Ik heb ondertussen verder gegraven in de Tweede Kamerstukken over CSS. De volgende pagina geeft een duidelijk overzicht: https://www.tweedekamer.nl/vergaderingen/plenaire_vergaderingen/details/activiteit?id=2022A10091. Uit die "overzichtpagina":

3 - Antwoorden op vragen commissie over uitvoering van de motie van het lid Van Raan c.s. over end-to-endencryptie in stand houden (Kamerstuk 26643-885)
In december vorig jaar hebben Kamerleden vragen gesteld. Als je drukt op (+) vóór "26643-968 Brief regering d.d. 31 januari 2023 [...]" zie je "2023D03477 Verslag van een schriftelijk overleg over uitvoering van de motie van het lid Van Raan c.s. over end-to-endencryptie in stand houden (Kamerstuk 26643-885)" dat je als PDF kunt downloaden.

Uit die PDF met antwoorden van de Minister (vette opmaak door mij):
Bij het geautomatiseerd controleren van berichten op materiaal van seksueel kindermisbruik kan het aantal vals positieven, indien nodig, tot een zeer laag percentage (bijvoorbeeld 0.01 procent) worden gebracht.
Het lijkt er dus sterk op dat de EC van veel hoger percentage uitgaat, en de Minister met "0.01 procent" een theoretische ondergrens aangeeft.

Voor de detectie van bekend materiaal van seksueel kindermisbruik levert een dergelijk rigide standaard geen problemen op. Echter, voor onbekend materiaal van seksueel kindermisbruik zou een dergelijke standaard in de praktijk betekenen dat dit type materiaal maar marginaal wordt gedetecteerd.
Rigide? Want?

Neural hashes zijn ongeschikt voor het detecteren van "onbekend materiaal". Voor zover ik weet is er nog geen AI-technologie beschikbaar waarmee (ook op oudere) smartphones (seksueel) kindermisbruik kan worden onderscheiden van foto's waarop bijv. een naakt kind te zien is, d.w.z. zonder dat sprake is van enig misbruik of andere kwade bedoelingen. Dat naast hoe zo'n algoritme zou moeten weten hoe oud dat kind is (vooral als er geen hoofd te zien is, of als de afbeelding van dat hoofd is vervangen). Wat mij betreft is dit wishful thinking - of helemaal geen thinking.

Indien gewenst is dat een aanzienlijk deel van het online seksueel kindermisbruik ook daadwerkelijk gedetecteerd wordt, zal bij het geautomatiseerd controleren van berichten op onbekend materiaal van seksueel kindermisbruik significante hoeveelheden vals positieven te verwachten zijn. {10}

{10}: Anders gezegd is hier sprake van communicerende vaten, waarbij vooraf ingestelde marge vals-positieven (bijvoorbeeld: het gedetecteerde materiaal mag maximaal 0,01 procent vals positieven bevatten) bepalend is voor de detectiegraad van materiaal van seksueel kindermisbruik: hoe strenger de marge wordt ingesteld, hoe lager de detectiegraad zal zijn.
De Minister laat na om te vermelden dat het hier gaat om de detectiegraad van bestaand, doch bewerkt beeldmateriaal. Er wordt voortdurend een veel te positief beeld geschetst van bestaande technologie, of er wordt uitgegaan van (door de wetenschap niet verwachte) spectaculaire verbeteringen.

Mede hierom wordt door de Commissie, naast technische oplossingen om de effecten van vals positieven te verminderen, in haar voorstel aanbevolen om deze negatieve effecten te ondervangen middels oprichting van een Europees centrum. Met dit centrum wordt onder andere beoogd te voorkomen dat deze vals positieven de wetshandhavers bereiken en meer focus kan worden bereikt ten aan zien van de gevallen die hen wel bereiken.
Hoezo zijn mensen die foute van goede beelden moeten onderscheiden geen "wetshandhavers"? Welke kwalificaties en screeningen moeten zij hebben om te voorkómen dat potentieel zeer vertrouwelijk beeldmateriaal in verkeerde handen valt en wordt misbruikt (notabene kinderen die naaktbeelden delen met mensen die zij terecht vertrouwen, kunnen hiermee worden afgeperst) en/of "gaat zwerven"?

Ook kan het centrum optreden als schakel naar de dienstaanbieders en hen van de nodige informatie voorzien. Tenslotte kan het centrum de rechtshandhaving noodzakelijke inzichten bieden door, onder andere, betrouwbare statistieken te genereren met betrekking tot seksueel kindermisbruik.
Hoezo "betrouwbare statistieken" "met betrekking tot seksueel kindermisbruik" - aan de hand van het aantal opnieuw gedeelde oude beelden (van hetzelfde misbruik) of zo? Wat zijn dit voor drogredenen?

Bizar vind ik ook dat geen enkel kamerlid de vragen stelde die wetenschappers stellen (en die ik hier stel, en al eerder stelde). Het lijkt er sterk op dat niemand van hen hier goed over nadenkt en/of zich er stevig in verdiept.

Aantal valspositieven per dag in Europa
Wellicht klinkt 0,01% weinig, maar uit https://photutorial.com/photos-statistics/:
• Users share the most images on WhatsApp: 6.9 billion per day. 1.3 billion images are shared on Instagram daily, with about 100 million in posts and more than 1 billion on stories and chats.
0,01% van 6,9 miljard is 690.000 foto's per dag (alleen van WhatApp) - maar dat is grotendeels buiten de EU. Wereldwijd zou WhatsApp meer dan 2 miljard gebruikers hebben; bron: Google whatsap user count (waarvan ruwweg een kwart in India; bron: https://www.bbc.com/news/world-asia-india-65481930).

Aan de hand van https://www.statista.com/statistics/880842/number-of-whatsapp-users-in-the-netherlands/, https://www.statista.com/statistics/1005178/share-population-using-whatsapp-europe/ en https://www.statista.com/statistics/253372/total-population-of-the-european-union-eu/ schat ik (ruw) dat zo'n 65% van 467 miljoen Europeanen WhatsApp gebruikt = ca. 300 miljoen Europeanen, dus ca. 1/7 van het totale aantal WhatsApp gebruikers.

Als de verdeling van het aantal verzonden foto's per WhatsApp-gebruiker gelijkmatig is over de wereld, zou je, voor de EU, op ca. 1 miljard foto's per dag komen. Bij 0,01% false positives zullen er, van alle handmatig te controleren foto's door het "Europese centrum", 100.000 foto's per dag als geen kindermisbruik beoordeeld moeten worden.

Dat zijn VÉÉL valspositieven. Dat heeft gevolgen voor het aantal onjuiste beoordelingen en op de kans op datalekken.

Het is veel erger
Ik ben niet de enige die het risico van veel te veel valspositieven ziet. In de blog https://cpg.doc.ic.ac.uk/blog/deephash-not-robust-to-detection-avoidance/ (publicatie: https://arxiv.org/abs/2106.09820) laten (de in een eerdere reactie hierboven genoemde) onderzoekers van het Imperial College London zien dat je, om al te eenvoudig bewerkte beelden te kunnen herkennen (het aantal valsnegatieven te verlagen), met een veel groter percentage valspositieven zult moeten dealen.

Hoe lang blijf je valspositief?
De vraag is ook wat er gebeurt als je een foto wilt versturen die "wordt herkend", maar een valspositief is. Gaat je smartphone meteen op slot? Hoe lang moet je wachten totdat je verder kunt met je (digitale) leven of die foto kunt versturen? Zie ook https://www.theregister.com/2022/12/16/esafety_comissioner_csea_report/.

Het wordt, na invoering, NOG erger
Zodra "perverts" weten dat zij gepakt kunnen worden als zij foute beelden "appen", gaan de meesten dat natuurlijk niet meer zomaar doen. Zolang CSS uitsluitend plaatsvindt vóór verzending door een chat-app, kun je beelden gewoon op je toestel hebben en bekijken, maar ze versleutelen voordat je ze verstuurt. Dus zal deze rat-race ertoe leiden dat alle (user-) bestanden op apparaten worden gescand. Niet alleen "beelden", want daar zou je de bestandsextensie van kunnen wijzigen.

Dus zullen "perverts" versleutelde bestanden uitwisselen en op een ander apparaat gaan decrypten en bekijken (bijvoorbeeld op een oude computer zonder internetconnectiviteit).

Hoewel versleutelde bestanden met eenvoudige wachtwoorden (zoals "infected") ook niet "veilig" meer zijn (https://arstechnica.com/information-technology/2023/05/microsoft-is-scanning-the-inside-of-password-protected-zip-files-for-malware/), zullen de meeste "perverts" uiteindelijk wel leren om sterke wachtwoorden te gebruiken.

Een oor aannaaien
Naast dat je toevallig tegen valspositieven "aan kunt lopen", is het ook relatief eenvoudig om ze zelf te genereren (als je de neurale hash van een "bekend" CSAM-plaatje kent). Een kwaadwillende kan zo'n plaatje (dat niets met kindermisbruik te maken heeft) naar iemand sturen, en die persoon aanmoedigen om dat plaatje door te sturen. Daarmee kan mogelijk een soort DoS (Denial of Service) aanval uitgevoerd worden.

Bijvoorbeeld de volgende twee foto's leveren een identieke neurale hash op, dus met een Hamming distance van nul: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1#issuecomment-903094036 (geen van beide tonen overigens kindermisbruik).

En in https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1#issuecomment-903161868 zie je dat slechts een deel van de bits in de hashes wijzigt als je op een foto "stevige" bewerkingen uitvoert (duidelijk is dus dat deze hashes niets met cryptografische hashes te maken hebben).

Probleem: groei van de database met verboden beelden
Hoe meer beelden er in die database zitten, hoe groter het aantal neurale hashes. En dat leidt er weer toe dat de kans op toevallige valspositieven toeneemt.

De kans is groot dat op korte termijn het aantal door AI gegenereerde (of gemanipuleerde) pornobeelden flink toeneemt. Hoe erg zijn door AI gegenereerde beelden - waar geen (nieuw) kindermisbruik bij heeft plaatsgevonden? Nb. in vergelijking tot beelden van nieuw kindermisbruik, ik probeer niks goed te praten. Als we die beelden weten "te vangen" dan groeit de database.

Zo'n database kan sowieso niet onbeperkt groot worden, de opslagruinte op (vooral oudere) smartphones is beperkt, en hoewel CPU's nog steeds sneller worden, je zult van elk beeld de hash moeten vergelijken met elke hash in de database - daarbij elke keer rekening houdend met de toegestane Hamming distance.

Probleem: uitlekken van algoritme en/of DB met neural hashes
Vergelijkbaar met cybercriminelen die hun malware zodanig aanpassen dat deze door zo min mogelijk virusscanners wordt herkend (en dat testen door te uploaden naar Virustotal, of minder toegankelijke diensten op internet): als je weet dat jouw CSAM-plaatje zal worden herkend, moet je er dus nog wat verder aan prutsen.

Ook algoritmes houd je zelden geheim, zie https://www.hackerfactor.com/blog/index.php?archives/931-PhotoDNA-and-Limitations.html met trouwens veel achtergrondinfo, voorzien van plaatjes.

Verder met de politiek
De betrokken politici lijken (net als destijds bij CoronaMelder en CoronaCheck) vele aspecten -echt niet alleen technische- te negeren. Het lijkt er vooral om te gaan of "afluisteren" wel of niet acceptabel is. Zonder enige discussie over hoe effectief zij is en zal blijven, welke mensen en middelen je hiervoor nodig hebt en dus niet meer kunt inzetten voor het effectiever bestrijden van het kindermisbruik zelf, op welk hellend vlak je je hiermee begeeft, hoe andere, minder democratische landen buiten de EU, dit zullen aangrijpen om (een deel van hun bevolking) nog verder te bespioneren, en welke kansen deze technologie biedt voor cybercriminelen.

Terug naar de eerdergenoemde overzichtspagina:

Stenogram van "tweeminutendebat"
Het stenogram (onder de bijlagen, in .docx formaat) bevat de notulen van het (korte) debat. Geeft een goede indruk van de verstandhoudingen, en dat de discussie uitsluitend over "privacy" versus opsporing gaat - en totaal niet over de effectiviteit.

4 - Moties ingediend tijdens het debat
Onder punt 4 gaat het om de onderste motie die je kunt bekijken door op het plusje te drukken vóór "26643-1011 Motie d.d. 20 april 2023 L.M. van Ginneken, Tweede Kamerlid Motie van het lid Van Ginneken c.s. Over zorgen dat het Europese voorstel geen encryptiebedreigende chatcontrol bevat".

Effectief luidt deze motie:
constaterende dat de Europese Commissie met haar voorstel COM/2022/209 inhoudelijke chatcontrol van berichten mogelijk wil maken en daarmee end-to-endencryptie en het postgeheim geweld aandoet;

constaterende dat de aangenomen motie-Van Raan c.s. (26 643, nr. 885) met betrekking tot het in stand houden van end-to-endencryptie ook voor deze wetgeving relevant is;

overwegende dat Duitsland en Oostenrijk zich nu ook hebben uitgesproken tegen chatcontrol en verklaren dat dit niet proportioneel is om alle berichten van iedereen zo maar te monitoren;

verzoekt de regering om in actieve samenspraak met andere gelijkgestemde lidstaten ervoor te zorgen dat het voorstel geen encryptiebedreigende chatcontrol bevat, zoals client-side scanning, en anders de verordening niet goed te keuren,
Deze motie is aangenomen (maar ik kon niet vinden met hoeveel stemmen vóór).

Laatste reactie van de Minister van J&V
In een brief van 8 mei (https://www.tweedekamer.nl/downloads/document?id=2023D18765, .doc, Office 97-Office 2003 format) schrijft de Minister van Justitie en Veiligheid onder meer (vette opmaak toegevoegd door mij):
[...]
Encryptie stelt de opsporing voor grote uitdagingen. In opsporingsonderzoeken blijkt het in veel gevallen zeer lastig en soms onmogelijk om gegevens die nodig zijn om criminelen op te sporen te verkrijgen. Ook in gevallen waarin dat volgens de wet is aangewezen. Deze uitdagingen zijn vooral aan de orde bij diensten die gebruik maken van end-to-end encryptie.
[...]
Dit gebrek belemmert de opsporings- en inlichtingendiensten in hun wettelijke taak de samenleving veilig te maken. Ik deel deze zorgen en vind ik het van belang dat de mogelijkheden van de opsporing om criminaliteit tegen te gaan effectief en adequaat zijn. Om zo te voorkomen dat criminelen vrij spel hebben, onder andere bij het verspreiden van online materiaal van seksueel kindermisbruik.
[...]
Het gaat dus, zo te zien, niet alleen om "het verspreiden van online materiaal van seksueel kindermisbruik" te beperken.

Nederland staat al jarenlang op nummer één als het gaat om het hosten van online materiaal van seksueel kindermisbruik in de Europese Unie. {2} Dat is om stil van te worden.
[...]
{2}: Zie o.a. de jaarlijkse rapporten van INHOPE (www.inhope.org) en de Internet Watch Foundation (www.iwf.org.uk).
Nee, dat is niet om stil van te worden, dat moet je veel harder aanpakken. Maar hosting heeft niets met het uitwisselen van beelden door individuen te maken.

In Brussel pleit Nederland voor een verordening die voldoet aan de motie van het lid Van Raan c.s., die in juli vorig jaar door uw Kamer is aangenomen en die de regering verzoekt end-to-end encryptie in stand te houden en Europese voorstellen die dat onmogelijk maken niet te steunen.

Daarbij zoek ik binnen het kader van die motie en de toezegging aan uw Kamer om deze motie uit te voeren naar de mogelijkheden die er wél zijn om tot regels te komen voor een effectieve bestrijding van seksueel kindermisbruik. Want die regels zijn helaas hard nodig. Daarbij wil ik ervoor zorgen dat Nederland een positieve bijdrage levert aan de aanpak - en niet nagenoeg alleen komt te staan met een vroegtijdige afwijzing van voorstellen in de Verordening waar zich vooralsnog een grote meerderheid van Europese lidstaten achter schaart. Ik wil voorkómen dat Nederland door een vroegtijdige afwijzing van het voorstel geen betekenisvolle invloed kan uitoefenen om het voorstel te verbeteren, mede met het oog op de motie van het lid Van Raan. Immers: als de verordening wordt aangenomen, dan is Nederland daar onverkort aan gebonden.
Hier zet de Minister de Kamer het mes op de keel: ofwel je gaat akkoord met CSS, ofwel het wordt mogelijk nog veel erger (t/m een verbod op "E2EE" zoals Spanje lijkt te willen), versterkt door:
In mijn brief van 31 januari aan uw Kamer wordt client-side scanning expliciet als optie benoemd om kinderpornografisch materiaal te onderkennen. {3}
Op dit moment lijkt dit de enige manier waarop de maatregelen in de verordening kunnen worden uitgevoerd zonder end-to-end encryptie aan te tasten.

{3}: Verslag van een schriftelijk overleg over uitvoering van de motie van het lid Van Raan c.s. over end-to-endencryptie in stand houden (Kamerstuk 26 643, nrs. 885 en 908).

De Minister sluit af met:
Indien client-side scanning in geen geval kan en tegelijk end-to-end-encryptie in stand moet blijven, dan zijn er geen mogelijkheden meer over – dus oók niet met de komst van de Digital Service Act of andere juridische instrumenten waarover nog wordt onderhandeld - om materiaal van seksueel kindermisbruik te onderkennen op interpersoonlijke communicatiediensten. Het is echter bekend dat juist deze diensten in toenemende mate voor de verspreiding ervan worden misbruikt. Die situatie acht ik, mede gezien ook de onderhandelingspositie in Brussel, zacht gezegd buitengewoon onwenselijk. Daarom heb ik deze motie, met klem, ontraden.

Maar stel dat de democratie het fout heeft, en je met CSS veel foute-beelden-kijkers vindt. Gaan we die dan allemaal opsluiten (waar dan, en wie gaat dat betalen)? En tot welke afname van daadwerkelijk kindermisbruik zal dit leiden? Denkt de EC echt dat het beter is om valspositiefscheiders in een "Europees Centrum" naar plaatjes te laten kijken, in plaats van plegers van kindermisbruik op te sporen? En/of met veel meer educatie zoveel mogelijk "perverts" bewust te maken van het leed dat zij -indirect- veroorzaken door steeds nieuw beeldmateriaal te willen?

Waarbij CSS notabene het vervaardigen van meer nieuw beeldmateriaal zou kunnen stimuleren, om steeds nieuwe beelden te hebben die nog niet worden herkend?

Ik weet niet welke lobbyisten hier achter zitten, maar beleidsmakers lijken zich te hebben ingegraven op basis van geloof in sprookjes.
27-05-2023, 18:22 door Anoniem
Door Erik van Straten: Ook kunnen voorstanders van CSS claimen dat er helemaal geen sprake is van "afluisteren/bespieden altijd en bij iedereen": immers, het is software op jouw device die dat doet. Uitsluitend als jij (bekende of zelfs nieuwe) beelden van kindermisbruik probeert te verzenden, zou die software alarm slaan.
Los van wat jij aankaart over perceptuele hashes en fout-positieven die zelfs bij zeer lage percentages absoluut gezien om grote aantallen gaan is er een ander punt, en dat lijkt mij fundamenteel voor CSS en voor massasurveillance in het algemeen.

Als men iedereen monitort dan wordt het ontbreken van de "hits" die men vastlegt ook informatie over een persoon, namelijk de informatie dat er geen "hits" zijn geconstateerd. Geen idee hebben of bij iemand verdacht materiaal te vinden is is iets wezenlijk anders dan weten dat dat het niet gevonden is. Ook als die informatie niet expliciet wordt opgeslagen is die afleidbaar uit wat wel is opgeslagen, en daarmee is die informatie effectief aanwezig. Je kan de gegevensverzameling van "hits" moeiteloos transformeren naar een gegevensverzameling over iedereen en vice versa. Wat men opslaat is daarmee volledig equivalent aan een gegevensverzameling over alle Nederlanders. En dit gaat over bijzondere persoonsgegevens omdat het raakt aan een seksuele voorkeur en aan strafbare feiten.

Als men iedereen onderzoekt heeft men ook informatie over iedereen, zelfs als men alleen vastlegt wat men interessant vindt. Dat levert een wezenlijk ander resultaat op dan wanneer men selectief onderzoekt op basis van een verdenking, en ik denk dat precies dat onderscheid maakt dat CSS massasurveillance is.
28-05-2023, 01:35 door Erik van Straten
Door Anoniem: Los van wat jij aankaart over perceptuele hashes en fout-positieven die zelfs bij zeer lage percentages absoluut gezien om grote aantallen gaan is er een ander punt, en dat lijkt mij fundamenteel voor CSS en voor massasurveillance in het algemeen.

Als men iedereen monitort dan wordt het ontbreken van de "hits" die men vastlegt ook informatie over een persoon, namelijk de informatie dat er geen "hits" zijn geconstateerd. Geen idee hebben of bij iemand verdacht materiaal te vinden is is iets wezenlijk anders dan weten dat dat het niet gevonden is. [...]
Je hebt een punt, maar dat valt wat mij betreft onder het "hellende vlak" (scope creep) na introductie, met als gevolg steeds verder gaande aantasting van de "privacy" van onschuldigen.

Ik ben ervan overtuigd dat kindermisbruik niet gaat afnemen door dit soort techsolutionisme. Zelfs als je de voorgestelde maatregelen veel verder oprekt, zijn ze nog steeds eenvoudig te omzeilen.

Wat ik daarom totaal onderbelicht vind, in de door politici gevoerde discussie, is in hoeverre alle poespas (CSS of zelfs het verbieden van "E2EE" bij chatapps) tot een afname van kindermisbruik gaat leiden. De hele privacy-discussie is onnodig als het doel van de maatregelen al van geen kanten gehaald gaat worden.

Daarbij, in haar Kamerbrief van 8 mei schreef de Minister van J&V:
[...] om materiaal van seksueel kindermisbruik te onderkennen op interpersoonlijke communicatiediensten. Het is echter bekend dat juist deze diensten in toenemende mate voor de verspreiding ervan worden misbruikt.
Zelfs dat blijkt niet klip en klaar uit de reportages van NCMEC, handzaam verwoord in https://www.hackerfactor.com/blog/index.php?/archives/990-NCMEC-and-ESP-2022-Reporting-Summary.html. Als 2/3 van de CSAM via facebook.com wordt verspreid, en minder dan 4% via WhatsApp, dan vraag ik mij helemaal af hoeveel zoden CSS aan de dijk gaat zetten.

Aan de andere kant is het mij niet duidelijk of het bij een "report" aan NCMEC gaat om om één foute foto, of één persoon met één of meer foute foto's - noch of het bij zo'n foto zeker om misbruik van minderjarigen gaat, danwel dat het om een verdenking gaat (inclusief valspositieven). Ook is het onduidelijk wie of wat heeft gesignaleerd dat het (mogelijk) om CSAM gaat. Maar ik zie de Minister ook geen cijfers noemen, laat staan controleerbare- met bronvermelding.

Last but not least is CSS symptoombestrijding. Zelfs als je een signifikant deel van de CSAM-verzenders zou identificeren "en iets met hen doet", welk effect gaat dat dan hebben op de productie van CSAM en ander (seksueel) kindermisbruik?

Kortom, als maatregelen verwaarloosbaar tot niks gaan opleveren is elke daarmee gepaard gaande privacyinbreuk disproportioneel. Dan hoef je het er ook niet meer over te hebben hoe groot die privacyinbreuk is en/of hoeveel mensen dat treft.
28-05-2023, 10:04 door Anoniem
Door Erik van Straten: Last but not least is CSS symptoombestrijding. Zelfs als je een signifikant deel van de CSAM-verzenders zou identificeren "en iets met hen doet", welk effect gaat dat dan hebben op de productie van CSAM en ander (seksueel) kindermisbruik?
Inderdaad. En dat roept de vraag op wie eigenlijk de producenten van dat materiaal zijn. Het meeste seksuele misbruik van kinderen wordt helemaal niet door pedofielen gedaan maar door vaders, buurmannen, ooms, mensen die om te beginnen al deel uitmaken van het dagelijkse leven van de slachtoffers. De verklaring daarvoor is op zich simpel: de grootste risicofactor is niet een voorkeur voor kinderen maar het ontbreken van empathie en geweten en het beschikbaar zijn van makkelijk manipuleerbare slachtoffers, en dat zijn kinderen uit de eigen omgeving. Als dat meestal de daders zijn, ligt het dan niet voor de hand dat dat tevens meestal degenen zijn die er foto's en video's van beginnen te maken?

Het aanpakken van het produceren van dit materiaal komt dan neer op het aanpakken van het misbruik van kinderen zelf. En dat is heel moeilijk omdat het binnen gezinnen en andere privésituaties gebeurt. Diep in het dagelijkse leven van mensen doordringen is ook weer een gigantische privacyschending, waarbij het nog helemaal niet eenvoudig is om als buitenstaander een vinger te krijgen achter wat zich werkelijk afspeelt, zodat het ook moeilijk is om te herkennen waar echt wat aan de hand is en waar niet. En hard ingrijpen in dit soort omstandigheden is zelf weer traumatisch voor de slachtoffers, want de dader is niet zomaar iemand waar alles overduidelijk slecht aan is, het is hun eigen vader of iemand anders waar ze niet voor niets een sterke band mee hebben.

Ik heb geen makkelijke antwoorden, en ik denk dat niemand die heeft. Door naar technologie te grijpen geeft men denk ik zichzelf het gevoel in ieder geval iets te doen. Ik denk dat we hier vooral onmacht zien en een maatregel die meer dat gevoel van onmacht aanpakt dan het werkelijke probleem. Ook zonder te weten hoe je dan wel verder komt is dat iets om grote bedenkingen bij te hebben.
28-05-2023, 10:30 door Anoniem
Door Erik van Straten: Je hebt een punt, maar dat valt wat mij betreft onder het "hellende vlak" (scope creep) na introductie, met als gevolg steeds verder gaande aantasting van de "privacy" van onschuldigen.
Dan heb je het over hoe men het eventueel ooit gaat gebruiken.

Het fundamentele punt is wel degelijk nu van belang, dit gaat namelijk over de proportionaliteit van de maatregel. Degenen die redeneren alsof deze gegevensverzameling alleen iets zegt over de mensen over wie expliciet wat is vastgelegd gebruiken een verkeerde basis om de proportionaliteit te beoordelen. Mijn punt is dat dit een gegevensverzameling is die informatie geeft over alle mensen en ook als zodanig moet worden beoordeeld. Dit oordeel is van invloed op de beslissing of de maatregel wordt ingevoerd of niet. Dat is nu van belang, en niet pas ergens in de toekomst.
28-05-2023, 20:43 door Anoniem
En hoe gaat men om met bewuste FP's?
Kan de onterecht verdachte zich weren tegen een OverheidsPanopticum?

Ik denk dat we allemaal bang moeten worden gemaakt,
omdat de overheid zo bang is voor haar eigen onderdanen?
Geen zuiver en schoon geweten misschien?

Toeslagen affaire en Grunne op de lange baan schuiven,
dan zou je als overheid eerder zelf goed in de gaten moeten worden gehouden.

Maar er zullen altijd wel weer meelopers of collaborateurs worden gevonden die CSS gaan toejuichen. Waren Snowden of Assange al niet genoeg waarschuwing?

#webproxy
30-05-2023, 20:37 door Anoniem
reactie op 27-05-2023, 00:37 door Erik van Straten - Bijgewerkt: 27-05-2023, 00:40 :

de Discrete Cosine Transformatie (DCT) is absoluut geen hash functie!
Het is een mathematische transformatie die wat lijkt op de bekendere Fourier transformatie,
en gewoon een andere manier om een signaal te beschrijven.

De Discrete Cosine Transformatie (DCT) kan weer reversed worden,
zodat het oorspronkelijke signaal of beeld weer helemaal hersteld wordt;
zie bijvoorbeeld:
https://www.mathworks.com/help/signal/ref/idct.html

Het is pure misleiding om de DCT als een hashing unctie te presenteren,
en is nog een slagje brutaler dan pseudonimisering te presenteren als als bijna-anonymisering.
30-05-2023, 23:41 door Erik van Straten
Door Anoniem: de Discrete Cosine Transformatie (DCT) is absoluut geen hash functie!
Het is een mathematische transformatie die wat lijkt op de bekendere Fourier transformatie, en gewoon een andere manier om een signaal te beschrijven.
Ik schreef dan ook:
Meestal wordt gebruik gemaakt van een Discrete Cosine Transform (https://en.wikipedia.org/wiki/Discrete_cosine_transform) waarbij, sterk vereenvoudigd, de foto in kleine blokjes wordt opgesplitst en van elk blokje een representatief getal wordt afgeleid.
Ik had dat verder kunnen uitwerken maar vond mijn reactie al lang genoeg (ik heb DCT genoemd om verder te verduidelijken dat de gebruikte hashes niets met cryptografische hashes te maken hebben; veel techneuten die "hash" lezen denken meteen dat "cryptografische" bedoeld wordt).

Als voorbeeld, uit https://github.com/alangshur/perceptual-dct-hash#perceptual-hash-algorithm:
Perceptual Hash Algorithm
• Reduce pixel size (depending on original size)
• Convert to greyscale or normalize pixel values (convert to 8-bit pixel intensity)
• Compute the discrete cosine transform (Fourier-like transformation)
• Reduce the DCT (signal energy lies at low frequency in upper left of domain 8 x 8 grid)
• Compute the average value (not including the outlier first frequency term)
• For each remaining frequency (presumably 64 of them), add a 1 bit to the integer if that frequency is greater than the mean (and a 0 otherwise)
Inderdaad is DCT geen (perceptual) hash algoritme, maar voor een perceptual hash wordt vaak gebruik gemaakt van de DCT - waarbij veel informatie wordt weggegooid.

Door Anoniem: De Discrete Cosine Transformatie (DCT) kan weer reversed worden, zodat het oorspronkelijke signaal of beeld weer helemaal hersteld wordt; [...]
Op DCT gebaseerde perceptual hashes kunnen ook gereversed worden. Maar omdat er veel info is weggegooid om tot een relatief korte reeks bits (fixed aantal) te komen, is de kwaliteit van die "reversed" beelden erg laag.

In https://www.anishathalye.com/2021/12/20/inverting-photodna/ laat Anish Athalye zien dat uit 144 bytes lange PhotoDNA hashes beelden kunnen worden gereconstrueerd die "iets weg hebben" van het origineel. Nb. hoe langer de hash, hoe minder valspositieven, maar ook hoe meer valsnegatieven na bewerking van beelden én hoe duidelijker "reversed" plaatjes (uit zo'n hash) kunnen worden - juist omdat perceptional hashes totaal anders werken dan cryptografische hashes.

Door Anoniem: Het is pure misleiding om de DCT als een hashing unctie te presenteren, [...]
Het was niet mijn bedoeling om de DCT als hashing functie te presenteren, het doel van de DCT is hier het converteren van een (voorbewerkt) beeld naar het frequentiedomein, waarbij ervoor en erna informatie wordt weggegooid (zie de de github tekst).

Zie ook https://en.wikipedia.org/wiki/Perceptual_hashing. Ik heb deze aloritmes niet bedacht en bovendien is het, m.b.t. de discussie over CSS, irrelevant welke rol DCT exact speelt bij perceptual hashes. Het punt dat ik probeerde te maken is dat CSS middels perceptual hashes tot extreem veel valspositieven leiden, terwijl voorstanders stellen dat dit op termijn wel zal worden opgelost en, tot die tijd, een "Europees centrum" de magie voor haar rekening kan nemen.
29-05-2024, 01:05 door Erik van Straten
De eerste regel van https://infosec.exchange/@ErikvanStraten/112520992306795855:
ik maak mij vooral zorgen over wat de voordracht van Dick Schoof betekent voor "chat control", oftewel "client side scanning" (CSS).
29-05-2024, 08:42 door Anoniem
Door Erik van Straten:
Door Anoniem: Het is pure misleiding om de DCT als een hashing unctie te presenteren, [...]
Het was niet mijn bedoeling om de DCT als hashing functie te presenteren, het doel van de DCT is hier het converteren van een (voorbewerkt) beeld naar het frequentiedomein, waarbij ervoor en erna informatie wordt weggegooid (zie de de github tekst).

DCT (en verwante functies - ) zijn ook de basis van 'lossy' beeld compressie zoals JPEG en MPEG .
Hoge frequenties krijg je van scherpe overgangen (en fijne details) .
De compressie wordt bereikt door de DCT output af te kappen (geen hoge frequenties), en de DCT coefficienten met beperkte (bit) resolutie te samplen. (de keuze waar af te kappen en hoeveel bit resolutie is waar de compressie-knop mee werkt) .
Vandaar dat - als de compressie factor erg omhoog gedraaid is - details zoals grassprietjes, of lijn-tekeningen (cartoons oid) blurry worden in jpeg . Basis regel - steile overgang = hoge freqenties. blokgolf-signaal bevat veel hoge frequenties (veelvouden van de basis-signaal frequentie)

Verdere compressie (weet zo niet of jpeg dat ook doet) is de kleur-informatie met minder resolutie meenemen dan de licht-donker overgangen. (luminantie/chrominantie). Dat doet het oude (ntsc/pal) video signaal (al) - de kleur-resolutie is lager dan de helderheid-resolutie.

Blijkbaar wordt deze 'image hash' gedaan op op basis van een soort ultra-extreme jpeg compressie .
29-05-2024, 09:16 door Anoniem
Door Erik van Straten: De eerste regel van https://infosec.exchange/@ErikvanStraten/112520992306795855:
ik maak mij vooral zorgen over wat de voordracht van Dick Schoof betekent voor "chat control", oftewel "client side scanning" (CSS).

Ga er maar van uit dat deze "premier voor alle Nederlanders" een duidelijk standpunt zal hebben mbt CSS (gezien zijn ambtelijke achtergrond). En dat standpunt zal overeenkomen met dat van de EC en de huidige minister van Justitie van Belgie (en de overige EU-landen).


Het zal betekenen dat iedereen voor zich zijn eigen data zal moeten gaan beschermen tegen zowel criminelen als ook de overheid/politiek.
Grondrechten gaan met voeten getreden worden. Met dank aan de nieuwe coalitie en hun toekomstige zaken-kabinet.
NSC bekent meteen al kleur. :[
29-05-2024, 10:09 door Anoniem
Door Anoniem:
Door Erik van Straten: De eerste regel van https://infosec.exchange/@ErikvanStraten/112520992306795855:
ik maak mij vooral zorgen over wat de voordracht van Dick Schoof betekent voor "chat control", oftewel "client side scanning" (CSS).

Ga er maar van uit dat deze "premier voor alle Nederlanders" een duidelijk standpunt zal hebben mbt CSS

In de begindagen van de Wiv 2017 waarschuwde prof. Paul Abels (Leiden) voor de politisering van het inlichtingenwerk. Met andere woorden, politieke partijen die de geheime diensten niet gebruiken waarvoor ze zijn – het beschermen van democratie en veiligheid – maar voor hun eigen politieke agenda. Daar zijn genoeg voorbeelden van, ook heel dichtbij.

https://www.nrc.nl/nieuws/2024/05/28/politisering-inlichtingendiensten-niet-langer-denkbeeldig-a4200209

De auteur van dit artikel is Hugo Vijver, publicist inlichtingen en veiligheid en oud-medewerker van de AIVD en MIVD.
29-05-2024, 12:00 door Anoniem
Bits of Freedom bezorgd over Dick Schoof als premierskandidaat
woensdag 29 mei 2024, 10:50 door Redactie

https://www.security.nl/posting/843382/Bits+of+Freedom+bezorgd+over+Dick+Schoof+als+premierskandidaat

Schoof sprak zich afgelopen maart in een interview nog tegenover De Groene Amsterdammer uit over privacy en de rechtsstaat, de vraag over de 'De morele pijngrens'. Schoof: "Er zijn allerlei ontwikkelingen in en buiten onze samenleving waar we ons aan moeten aanpassen. Neem de balans tussen vrijheid en privacy. Die is niet in beton gegoten."
29-05-2024, 12:25 door Anoniem
Door Anoniem: Bits of Freedom bezorgd over Dick Schoof als premierskandidaat
woensdag 29 mei 2024, 10:50 door Redactie

https://www.security.nl/posting/843382/Bits+of+Freedom+bezorgd+over+Dick+Schoof+als+premierskandidaat

Schoof sprak zich afgelopen maart in een interview nog tegenover De Groene Amsterdammer uit over privacy en de rechtsstaat, de vraag over de 'De morele pijngrens'. Schoof: "Er zijn allerlei ontwikkelingen in en buiten onze samenleving waar we ons aan moeten aanpassen. Neem de balans tussen vrijheid en privacy. Die is niet in beton gegoten."

Daar gaan je grondrechten.
Zeg maar dag met je handje.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.