wechall做题之www-robots

页面提示:

In this little training challenge, you are going to learn about the Robots_exclusion_standard.
The robots.txt file is used by web crawlers to check if they are allowed to crawl and index your website or only parts of it.
Sometimes these files reveal the directory structure instead protecting the content from being crawled.

Enjoy!

解题思路:

        本题连一个提交框都没有,不过看到标题就知道这是一个考核robots的题目,再看看提示中提到了robots.txt,什么是robots呢?

        1.什么是robots

        robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视obots.txt文件去抓取网页的快照 

        robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器都可以创建和编辑它。

        主要是在服务器的根目录下放置一个robots.txt文件,在这个文件中利用标准的语法来告知想要爬的爬虫自己允许的范围。

        robots.txt是一个协议,不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页。

        robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯入者。

        robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取。

        2.解题

        在URL后面把index.php 替换为robots.txt看看能否打开,输入:

https://www.wechall.net/challenge/training/www/robots/robots.txt

        提示出错:

         考虑到robots.txt一般放在站点根目录下,所以进入其根目录找找是不是有:

        https://www.wechall.net/robots.txt

        发现,有robots.txt文件,内容中有一段:

User-agent: *
Disallow: /challenge/training/www/robots/T0PS3CR3T

        不让访问这个地址啊,激起了好奇心,进去看看:

https://www.wechall.net/challenge/training/www/robots/T0PS3CR3T

        成功!

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值