Google geeft privacyblunder toe", bericht Webwereld maandagochtend. Het gaat hier over het ten onrechte door Google indexeren van https pagina's (zie ook ons artikel van vorige week). Google blijkt de robots.txt bestanden op https websites te hebben genegeerd, waardoor mogelijk sites geindexeerd zijn waarvan de eigenaar dit niet wilde. Door website Voelspriet wordt dit ten onrechte uitgelegd als een beveiligingslek. Iedereen met enige technische kennis kan zelf een google-achtige spider bouwen die het robots.txt compleet negeert en dus over dezelfde informatie beschikt als de 'foute' Google cache. De werkelijke schuld van het beveiligingsprobleem ligt dus bij webmasters die geen fatsoenlijke beveiliging op hun https websites plaatsen zoals username/password controle, Limit checks of het gebruik van client certificates. Ook het gebruik van robots.txt kan niet serieus worden genomen als beveiligingsmaatregel, zo schreef ook Cnet al vorig jaar: In addition, the robots.txt "keep out" sign could serve as an advertisement to hackers that valuable or sensitive information lies behind it. .
Deze posting is gelocked. Reageren is niet meer mogelijk.