De Belgische beveiligingsonderzoeker Didier Stevens heeft een nieuwe kwaadaardige webscanner ontdekt die zich als een combinatie van de Googlebot en Baiduspider voordoet. Via deze webcrawlers brengen de zoekmachines allerlei webcontent in kaart. In zijn logs zag Stevens de 'agent string' waarmee zoekmachines zich identificeren en zich dit keer als een combinatie van de Baiduspider en Googlebot voordeed.
De 12 IP-adressen die de string gebruikten waren uit China afkomstig. De spider zoekt niet naar documenten of het robots.txt bestand, waar websites instructies voor zoekmachines in kunnen zetten. Volgens Stevens werd er alleen naar manier gezocht om zijn website aan te vallen.
"Waarschijnlijk gebruiken ze Baiduspider en Googlebot omdat er mensen zijn die deze scanners negeren bij de analyse van hun logs", aldus de Belgische onderzoeker tegenover Security.nl.
Deze posting is gelocked. Reageren is niet meer mogelijk.