1.
1.查看网页源代码
方法:1.首先使用鼠标右键查看源代码
2.电脑激活Fn键,然后Fn+f12
3.浏览器的自带设置
直接复制粘贴flag就行了
2.robots
robots:搜索引擎经过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
您能够在您的网站中建立一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,
这样,该网站的部分或所有内容就能够不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。该文件默认在网站根目录下。
robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
所以直接访问该地址下的robots.txt文件看到flag文件后,访问该文件便可。
3.back——up
根据提示是要找index.php备份文件,常见的备份文件后缀名有: .git .svn .swp .svn .~ .bak .bash_history
代开文件以后就可以看到flag了
4.cookie
首先在网址后面加上cookie.php
之后Fn+f12弹出界面,然后查看网络,如下图所示
5.不能按的按钮
如果网页之中没有办法按,查看网页源代码
Fn+f12打开网页源代码
将里面的disabled删除,按键就可以按了。