【攻防世界CTF|web方向】第一题:Training-WWW-Robots

一、解题思考过程

1.进入题目场景

 2.发现破题点:Robots_exclusion_standard

经了解发现,Robots_exclusion_standard是网络爬虫排除标准。

作用:网站告知爬虫哪些页面可以抓取,哪些不行

形式:在网站根目录下的robots.txt文件

3.尝试访问:本题目场景的网页下的robots.txt文件,得到如下界面

4.阅读该页面内容发现语句

Disallow: /fl0g.php

其中fl0g与flag形似,于是,我尝试访问该网页下fl0g.php,出现如下界面:

5.将cyberpeace{2d403aec04a2bcbc13ec21368dd734a6}提交答题框,夺旗成功!

二、复盘积累

1.做题技巧层面:有时flag会出现一些相似的变形,比如这道题中的fl0g,不要忽视了。

2.本题知识点:robots.txt

robots.txt 是一个协议,而不是一个 命令 。 robots.txt 是 搜索引擎 中访问网站的时候要查看的第一个
文件。 robots.txt 文件告诉 蜘蛛程序 在服务器上什么文件 是可以被查看的。
当一个搜索蜘蛛访问一个 站点 时,它会首先 检查 该站点 根目录 下是否存在 robots.txt ,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被 搜索引擎收录 的内容时,才需要使用 robots.txt 文件。如果您希望搜索引擎收录网站上所有内容,请勿建立 robots.txt文件。
robots.txt 不是 命令 ,也不是 防火墙 ,如同守门人无法阻止窃贼等恶意闯入者,是一个类似于君子协议的文件。
  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值