首先认识一下什么是
嗯访问一下,就可以了。
robots协议
百度百科说:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
具体写法:在根目录下robots.txt中:
User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
这个题目就是说找找wechall的robots.txt。
http://www.wechall.net/robots.txt
上面说:
User-agent: *
Disallow: /challenge/training/www/robots/T0PS3CR3T
嗯访问一下,就可以了。
http://www.wechall.net/challenge/training/www/robots/T0PS3CR3T/