一、解题思考过程
1.进入题目场景
2.发现破题点:Robots_exclusion_standard
经了解发现,Robots_exclusion_standard是网络爬虫排除标准。
作用:网站告知爬虫哪些页面可以抓取,哪些不行
形式:在网站根目录下的robots.txt文件
3.尝试访问:本题目场景的网页下的robots.txt文件,得到如下界面
4.阅读该页面内容发现语句
Disallow: /fl0g.php
其中fl0g与flag形似,于是,我尝试访问该网页下fl0g.php,出现如下界面:
5.将cyberpeace{2d403aec04a2bcbc13ec21368dd734a6}提交答题框,夺旗成功!
二、复盘积累
1.做题技巧层面:有时flag会出现一些相似的变形,比如这道题中的fl0g,不要忽视了。
2.本题知识点:robots.txt
robots.txt
是一个协议,而不是一个
命令
。 robots.txt 是
搜索引擎
中访问网站的时候要查看的第一个
文件。
robots.txt
文件告诉
蜘蛛程序
在服务器上什么文件 是可以被查看的。
当一个搜索蜘蛛访问一个
站点
时,它会首先
检查
该站点
根目录
下是否存在
robots.txt
,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被
搜索引擎收录
的内容时,才需要使用
robots.txt
文件。如果您希望搜索引擎收录网站上所有内容,请勿建立 robots.txt文件。
robots.txt
不是
命令
,也不是
防火墙
,如同守门人无法阻止窃贼等恶意闯入者,是一个类似于君子协议的文件。