Je hebt een klacht over de onderstaande posting:
Door Anoniem: Vroeg t al eerder. Kan iemand me uitleggen hoe je grooming detecteerd d.m.v. een hash? Onmogelijk of ik heb t mis. Maar dat betekend dat er naar meer wordt gekeken als hashes van bekend materiaal... Dat kan niet, die hashes worden alleen gebruikt voor het CSAM (child sexual abuse material) wat al bekend is en waar mensen al naar hebben moeten kijken om het te classificeren. De rest gaat allemaal met algorithmes (AI zouden we dat nu noemen) en dus een grote kans op foutmarges en andere problematiek. En daar zit nu juist het grootste probleem. Bleef het maar bij die hashes als ze het echt doorvoeren. Buiten dat dat veel te makkelijk te omzeilen is, paar pixels veranderen en de hash functie spuugt een ander resultaat uit en weg is je check lijstje.
Beschrijf je klacht (Optioneel):