Door sanpedro: Om er voor te zorgen dat bepaalde pagina's niet worden gevonden door zoek machine dus geheim?
Nee, het geeft aan wat er wel en niet
geïndexeerd hoeft te worden. Meer niet.
Despite the use of the terms "allow" and "disallow", the protocol is purely advisory. It relies on the cooperation of the web robot, so that marking an area of a site out of bounds with robots.txt does not guarantee exclusion of all web robots. In particular, malicious web robots are unlikely to honor robots.txt.
http://en.wikipedia.org/wiki/Robots_exclusion_standard