Ik denk dat we een aantal initiatieven vanuit de EU naast elkaar moeten zetten: verbieden van E2E, CSS en het thema aangaande desinformatie.
Verbieden E2E encryptieTen eerste zou ik de definitie van E2E encryptie willen weten die de EU hanteert. Wat is E2E in dit geval: betreft het de connectie (dus TLS), betreft het een applicatieve E2E toevoeging of beide? Vooralsnog ga ik van de tweede (applicatief) uit, aangezien verbieden van TLS de deur helemaal open zet voor kwaadwillenden.
Overigens ben ik ervan overtuigd dat een kwaadwillende gewoon zelf gaat encrypten als de applicatie die niet meer ondersteund. Dan wordt gewoon encrypted materiaal uitgewisseld.
CSS/CSARTen eerste beperkt dit zich niet tot chatverkeer. Het omvat alle vormen van communicatie (chat, email. SMS, telefonie, gaming, dating), applicatie stores en hosting platforms (cloud services, cloud opslag, etc).
Ten tweede is CSS een van de vormen waarin dit zich zou kunnen gaan plaatsvinden, een andere manier is om bijvoorbeeld altijd een afschrift van ieder bericht niet naar alleen de ontvanger te sturen, maar ook naar een CSAR-engine. CSS wordt nu gepromoot als een privacyvriendelijke manier, wat het natuurlijk totaal niet is.
Vervolgens vindt puur CSS plaats op het device onder controle van een eventuele kwaadwillende. Deze kan door een paar technische maatregelen er gewoon voor zorgen dat CSS niet gaat werken, of niet uitgevoerd wordt (aangepaste client applicatie, eigen DNS (als pihole die de domeinnaam van de CSAM service die bijvoorbeeld de hashes van images bevat niet resolved of resolved naar een "eigen" CSAM-service die fake info voedt), een FW die de URL blokt etc.
Doel?Het is mij niet geheel duidelijk wat het (officiele) doel hiervan is. Is het de bedoeling om de ontvangers van deze berichten te beschermen, is het de bedoeling om de uitwisseling van KP tussen pedofielen onderling te verhinderen of is het de bedoeling om het vervaardigen te verhinderen? In het eerste geval lijkt me het het beste om de ontvanger van een ongewenst bericht een gemakkelijke manier van rapporteren geven (bijvoorbeeld met een knop in de applicatie, analoog aan rapportage van spam email): dit voorkomt het tappen (en dus als verdacht beschouwen) van iedereen. Het tweede geval ga je niet bereiken: een kwaadwillende zal gewoon of een eigen encryptie eroverheen zetten of een andere manier van uitwisselen gebruiken, waarschijnlijk beide. Het biedt helemaal geen soelaas voor het eigenlijke probleem: het vervaardigen van dit materiaal.
False postives/false negativesHet automatisch bepalen of een tekstbericht, afbeelding, video of audiobericht een KP bericht is is niet in alle gevallen even gemakkelijk.
Mbt chat/SMS berichten heeft de Zwiterse politie al een proef gedraaid. Hier kwam een 87% false positive rate uit
https://piratenpartij.nl/chatcontrole/, wat niet verwondelijk is aangezien een chatbericht een kort berichtje is waar je in het algemeen niet veel mee kunt. Je zult de hele context dan moeten meenemen, wat betekent dat dit eigenlijk alleen kans van slagen heeft als je de volledige geschiedenis van bericht en antwoord meeneemt inclusief een profiel van zender en ontvanger en voedt aan een of andere AI engine. Dit compromiteert dan natuurlijk wel volledig de privacy van iedereen.
Mbt plaatjes (en video's) is eea ook niet eenvoudig. Hoe maak je bijvoorbeeld het onderscheid tussen een foto die een ouder heeft gemaakt van zijn/haar kind tov een pedofiel die daarop geilt? Ik vermoed dat de false positive rate behoorlijk hoog zal zijn (aangezien men als de dood is om iets te missen, en dus eerder gaat voor meer false positives dan false negatives).
Wordt in geval van een match de data doorgestuurd naar een of andere instantie die daar dan naar moet kijken? Welke instantie? In geval van internationaal verkeer, de instantie van de zender of van de ontvanger (of beide)? Waar gaat zo'n instantie de capaciteit vandaan halen om alles te beoordelen (wordt dit uitbesteed?). ? Hoe voorkomen we onterechte verdachtmakingen (zeker in de cancelcultuur die nu heerst)? Hoe voorkomen we dataleakage van dit soort (zeer gevoelige) gegevens?
Kortom, dit gaat op dit vlak meer problemen veroorzaken dan oplossen (maar daar verzint men dan ongetwijfeld wel weer een technische oplossing voor, en daar weer voor, en daar weer voor, etc totdat de privacy volledig weg is).
Ministery of truthEen groot probleem is wie in dit geval gaat optreden als instantie die bepaalt of iets KP, desinformatie, of andersoortige ongewenste content is. Welke normen worden gehanteerd? Die zijn per land bijna verschillend. Wanneer wordt een afbeelding/video als ongepast aangemerkt? In de US denkt men daar volledig anders over dan in Nederland. Zelfs binnen een enkel land als Nederland is er niet een eenduidige norm (vgl de woke community, verschil tussen stad en platteland etc).
Wanneer is iets desinformatie? Is iets al desinformatie als het tegen de gangbare (van overheidswege gehanteerde) mening ingaat (zoals in Rusland/Turkije etc)? Zelfs op basis van "feiten" wordt eea al lastig: wat is de bron van een feit, wie bepaalt de betrouwbaarheid van zo'n bron? Maar al te vaak worden zaken (zelfs cijfermatig materiaal) zodanig gepresenteerd zodat dit de brenger van de boodschap ondersteund. Echter hetzelfde cijfermateriaal zou ook een volstrekt andere boodschap kunnen ondersteunen: het is maar hoe je dit presenteert. Ter vergelijk: een accountant kan (in gevallen) met dezelfde cijfers een heel rooskleurig beeld van een bedrijf schetsen, maar met dezelfde cijfers ook een zwartgallig beeld. Het is maar wat het doel van het rapport is.
Zelfs wetenschappelijke zaken zijn niet zonder meer aan te merken als betrouwbare informatie. Niet alle wetenschappers zijn het altijd met elkaar eens. Het komt ook regelmatig voor dat een op dat moment gehanteerde wetenschappelijk onderbouwde stelling, later onderuit wordt gehaald.
Al met al een heel gevaarlijke ontwikkeling. Dit riekt al snel naar censuur (en hoe ga je dit uiteindelijk voorkomen)?
Scope creepOp dit moment wordt KP aangevoerd als argument. Echter, de geschiedenis leert dat instrumenten die eenmaal zijn ingevoerd (en worden "geaccepteerd") beetje bij beetje worden opgerekt (salami taktiek) om onder het mom van andere redenen de scope steeds verder uit te breiden. En omdat het steeds maar kleine stapjes zijn heeft het gros van de mensen dit niet in de gaten (vaak wordt de taktiek gehanteerd om een forse uitbreiding te beargumenteren, die dan vervolgens veel tegenreacties oproepen, waarbij de oorspronkelijke uitbreiding iets in te perken, die vervolgens wel wordt aangenomen, maar waarbij de scope uiteindelijk wel weer iets opgerekt, etc, etc). Vergelijk hierbij bijboorbeeld de ANPR camera's: oorspronkelijk bedoeld voor rijkswaterstaat om bijvoorbeeld de extra rijstroken mee te monitoren (op bijvoorbeeld ongevallen), vervolgens door justitie aangegrepen en vervolgens de belastingdienst hier toegang toe te geven. Vergelijk de vingerafdrukken in identiteitsbewijzen: oorspronkelijk alleen in paspoort met alleen opslag hiervan in de chip, vervolgens ook in het ID bewijs, vervolgens wil men nu naar centrale opslag van zowel vingerafdrukken als gezicht, nu enkel voor uitgite doeleinden (wat nergens op slaat); we kunnen erop wachten dat justitie toegang tot deze database zal krijgen, dat deze met additionele biometrische gegevens zal worden uitgebreid (ik hou mijn hart vast voor een datalek vanuit deze database).
ConclusieBovenstaande bezwaren bestaan wat mij betreft zowel voor het verbieden van E2E encryptie als het invoeren van iets als CSS. Voor beide oplossing geldt dat het een zeer disproportionele maatregel is (een minimaal percentage van het totaal aantal berichten of personen is kwaadaardig, waarbij wel iedereen continu onder de tap wordt gezet (waar normaal gesproken een rechterlijk bevel voor nodig is).
Beide implementaties hebben als probleem dat het waarschijnlijk meer problemen gaat veroorzaken dan oplossen.
Beide implementaties schenden het briefgeheim. Het argument dat CSS op basis van hashes werkt en daardoor de privacyvriendelijker zou zijn houdt geen stand. Het blijft "magische" software die met de informatie kan doen wat deze wil: of dit nu centraal plaatsvindt of decentraal is om het even. Uiteindelijk zullen veel false positives worden gedetecteerd, die door mensen zullen worden beoordeeld, gekoppeld aan de profielen van de zender/ontvanger. Verder zul je bij CSS (als het niet om simpele plaatjes gaat), vaak van een AI-achtige service en de context gebruik moeten maken om resultaat te kunnen hebben: dit zal nooit decentraal kunnen, waardoor eea toch weer centraal plaatsvindt.
Als ik naar de doelbinding kijk, die mij niet geheel duidelijk is (gaat het om verspreiding of om bescherming van een ontvanger), dan is of een veel privacyvriendelijker alternatief beschikbaar of gaat het niet werken. In beide gevallen betreft het symptoombestrijding: het eigenlijke probleem, namelijk het vervaardigen van KP waarmee de kinderen die het betreft beschermt, wordt niet opgelost en zal dus blijven plaatsvinden. De verantwoordelijken zouden dit toch ook moeten begrijpen of is er toch een verborgen agenda?
Uiteindelijk is het zo dat je aan CSS zelf wat kunt doen: geen gebruik van closed source applicaties, hosten van een eigen server, eigen DNS, firewall etc. Dit zou dus een voordeel van deze implementatie tov E2E verbieden kunnen zijn. Echter, wel moet je hier erg veel tijd insteken, zeker om up-to-date te blijven. Het gros van de mensen zal hier niet toe in staat zijn, waardoor het eventuele voordeel in 99% van de gevallen niet opgaat.
Overigens vertrouw ik op dit moment een groot deel van de applicaties niet dat deze goed omgaan met E2E encryptie. Dit is nogal afhankelijk van waar en hoe de keys worden gegenereerd en wie er toegang tot heeft. En wie zegt me nu al niet dat er toch stiekem een afslag wordt gemaakt? Dit is eigenlijk alleen te voorkomen als je enkel open source oplossingen gebruikt en er veel tijd insteekt om deze te beoordelen.
Voor cloud opslag, email e.d. wordt er nu al openlijk door bepaalde aanbieders gemeld dat deze nu wordt gescand voor commerciele toepassingen: dus wanneer daar niet encrypted data naar toe gaat (wat in veel gevallen zal gebeuren) is de privacy sowieso gecompromitteerd (daarom wordt er in mijn geval enkel client-side encrypted data naar toe gezet, of maak ik gebruik van een on-prem NAS). Laat staan het "recht' om de data te delen met sub-aanbieders, zonder enige garantie wat die daar mee doen.
Ik ga er nu al vanuit dat wanneer ik gebruik zou maken van closed source chat apps (wat ik niet doe) dat eea al niet meer prive is. E2E wordt vrees ik vaak enkel als marketing argument gebruikt, waarbij de implementatie mogelijk zodanig is dat je het niet echt als E2E kunt beschouwen (als een key centraal wordt gegenereerd is het sowieso einde oefening).
Een nadeel van CSS is verder dat hiervoor gebruik wordt gemaakt van resources van een gebruiker (CPU, opslag, RAM). Voordeel voor de aanbieders, maar de gebruikers moeten dan investeringen doen (dit gaat gewoon capaciteit kosten) om zijn privacyschending zelf te financieren. In het kader daarvan uiteindelijk een negatief punt voor CSS, maar eea is wat mij betreft een close call.
Uiteindelijk zijn beide scenario's zeer onwenselijk, gezien de marginale opbrengst (als die er al is) tov de enorme impact.