1.view_source
查看网页源代码的方式有4种,分别是:
1、鼠标右击会看到”查看源代码“,这个网页的源代码就出现在你眼前了;
2、可以使用快捷Ctrl+U来查看源码;
3、在地址栏前面加上view-source,如view-source:https://www.baidu.com ;
4、浏览器的设置菜单框中,找到“更多工具”,然后再找开发者工具,也可以查看网页源代码
————————————————
版权声明:本文为CSDN博主「淅见.」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_45816524/article/details/120274581
进入后
点f12
从script标签内也可以看到无法右键的原因了
还有这个和flag形式很相似,拿去尝试,成功
2.robots
robots协议(摘取百度百科)
robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统安装了Notepad,就可以创建和编辑它 [1] 。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
如果将网站视为酒店里的一个房间,robots.txt就是主人在房间门口悬挂的“请勿打扰”或“欢迎打扫”的提示牌。这个文件告诉来访的搜索引擎哪些房间可以进入和参观,哪些房间因为存放贵重物品,或可能涉及住户及访客的隐私而不对搜索引擎开放。但robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯入者。
首先f12
看到提示,表明flag不在这里
回想题目说教robots
那么就找网页的robots协议
从这位老哥讲解就知道了爬虫_如何查看网站的robots协议? - 简书 (jianshu.com)
在该url后加入robots.txt
得到
尝试了这个不是flag,通过_看出,这一整个也许还是后缀
不成功
最终成功
3.backup
CTF自学 - Eklos - 博客园 (cnblogs.com)
通过该文章可知常用备份文件后缀为.bak
下载到了文件
得到flag
4.cookie
网站Cookie是你正在访问的网站发送到你正在使用的设备上的小型文档,当你按下接受的时候,这些Cookie将会储存在设备的浏览器上,随后可以从浏览器追踪和收集你的使用数据,并且将该数据回传给网站经营者。这些数据上标记有你和你的计算机专有ID,网站服务器读取ID并分析保存下来的数据确定要为你提供哪些信息与服务。
他们就像网站在每个来访用户身上标记的小标签,以便你下次再来时服务器将你识别为“回头客”,省去重新认识你的过程。此标记允许网站记住你的偏好并且为你提供更个性化的体验。例如,如果你在初次访问网站时选择深色模式且已经接受该网站的Cookie,当你下次打开这个网站时会自动跳呈深色模式。同样的,Cookie可以帮助网站记住你登录的时间,因此你不必在每次访问时都输入一次登录凭证(摘取每个网站都要你接受Cookie,Cookie是什么?同意了又会发生什么? (baidu.com))
开始操作
点击f12,点开cookie,这个look here很吸引我
看到值为cookie.php
这个http respose看响应包,于是知道用Burpsuite抓包
成功
5.disabled_button
点开 f12
看到disabled,被禁止了
将其删除,得到