Robots
Robots协议:爬虫协议、爬虫规则等,是指网站建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照。robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。
网址后输入robots.txt
http://61.147.171.105:63688/robots.txt
网址输入http://61.147.171.105:63688/fl0g.php
得到flag