Door ej__: Vertel: waarom NCSC, Enisa adviseren om op minimaal 2048 bits te gaan zitten? Waarom adviseert NIST, NSA op minimaal 2048 bits te gaan zitten? Waarom gaat Google (en andere grote partijen) op 2048 bits zitten?
Omdat die adviezen zijn voor alle soorten gebruik, voor data die langdurig beschermd moet blijven en potentieel erg waardevol is.
Onder die vraagstelling ben ik het ook volkomen eens met adviesen van 2048 of meer. - en vandaar dat ik mijn statement hier kwalificeerde met _slechts voor spam filtering_ . En het advies dat je die key vooral moet roteren.
Overigens geeft bv de NIST SP800-57 publicatie wel heel uitgebreid gebruikersdoelen, levensduur en bijbehorende afwegingen , en schat rsa-1024 equivalent met ca 80 bits symmetrische encryptie .
Ook ECRYPT2 geeft een hoop gebruikscriteria bij de diverse aanbevelingen.
De gemiddelde security expert moet je ook vooral niet lastig vallen met details en kwalificaties, maar alleen maar een bitlengte geven die onder geen enkel soort gebruik te kort is.
Ik vermoed dat die toch iets meer kijk op de zaak hebben dan Anoniem 1952. Je kunt vast zelf wel de linkjes vinden. En clickbait? Heb je de reactie van Google gezien? 512 bits was in 2012 binnen 72 uur te factoriseren. Daar heb je op zich niet al te veel kennis voor nodig, iedere VWO'er met wiskunde kennis kan het. Heb je enig idee hoe krachtig een AWS cluster is, en hoe goedkoop dat dan is?
Clickbait - je geeft en gelooft een linktitel die zegt "1024 bit rsa gebroken" terwijl het alleen maar een side channel attack is.
Dat 512 bit te kort is heb ik beaamd - iets wat in _1999_ behoorlijk state of the art was, is in 2012 inderdaad wel binnen bereik van een individu dat een punt wil maken .
Ik heb wat meer dan VWO wiskunde - en ik weet dat _grootschalige_ factorisatie gewoon moeilijk is.
En die papers en records worden ook niet door VWO'ers geschreven. (ook niet door mij, trouwens).
Dee rand van de state of the art is echt geen VWO stof , maar bestaat uit een serie promotie waardig onderwerpen.
Het schaalt ook niet alleen maar met CPU snelheid of aantallen CPUs, maar ook met de hoeveelheid geheugen , in zowel de 'zeef'fase , en nog meer in de matrix eliminatie stap . Ook het kiezen van parameters (aantallen relaties wat gezocht gaat worden in de zeef-fase ) is een vak apart, en zeker geen invuloefening in een spreadsheet.
Je kunt hier niet simpelweg aantallen #cpu's/cycles/MIPSen uitruilen tegen tijd , voor factorizatie.
Dat is anders voor het dictionary of brute force searchen van wachtwoord hashes - dat is pas echt een schoolvoorbeeld van triviaal te paralleliseren en puur CPU bound.
Heb je overigens voorbeelden van VWO'ers die 512 bits factorizatie doen ? Het huren van AWS wil ik ze wel toevertrouwen,
het doen van een 512 bit factorisatie zou ik nog steeds behoorlijk knap vinden.
Je zult gezien hebben dat degene die de google 512 bit key factoriseerde een wiskundige was met een hobby voor factorizatie - en daar heb je , in dat gebied, meer aan dat het zijn van een 'security researcher' (wat hij niet was).
De spammers hebben een heleboel geld te investeren. Cybercriminelen (die graag phishing sturen) nog veel meer.
We leven overigens bijna in 2016, om je dan te verlaten op aanbevelingen van 2010 is enigszins gevaarlijk.
Het is het meest recente factorisatie record, de auteurs zijn (een deel van) de bekende namen die echt in dat gebied werken en publiceren, en ik ben geen recentere wiskundige doorbraken tegengekomen waardoor hun extrapolatie opeens enorm onjuist zou zijn.
Als je de referenties leest van de aanbevelingen zoals de door jou genoemde instituten doen, zie je dat die uitgebreid leunen op publicaties van tussen 2000 en heden voor het schatten van de hoeveelheid werk om bepaalde keylengtes te kraken.
Voorbeeld : NCSC (beveiligingsrichtlijnen voor TLS ) citeert Enisa 2013, en Enisa 2013 geeft een tabel gevuld met
Lenstra-Verheul 2000, Lenstra 2004 , IETF 2004, SECG 2009, NIST 2012 en ECRYPT2 2012 .
Oftewel - voor de research waar de diverse aanbevelingen op gebaseerd zijn is 2010 gewoon recent.
Ik baseer me op standaarden. De standaarden van dit moment zeggen dat we weg moeten blijven bij alles wat minder dan 2048 bits is. Onderschatten van 'de tegenstander' is het gevaarlijkste dat je kan doen, en precies dat promoot je.
Ik lees ze ook - en vooral de referenties die ze geven.
Ik maak me niet veel zorgen over iets wat vrijwel een wegwerp key moet zijn en naar beste schatten een jaar of twee werk van een set van top experts vergt .
Denken dat de tegenstanders zich vooral richten op de sterkste schakel, en al mijn aandacht daarop richten is wat ik probeer te vermijden. Ook al is het verleidelijk omdat die sterkste schakel ongeveer als enige zo lekker makkelijk kwantificeerbaar is, en met zo weinig moeite NOG sterker gemaakt kan worden. Lijkt het net alsof je heel effectief bezig bent.