温故知新,复盘时应去尝试不同方法,弄懂原理!
WEB 1
.
查看源码应是本能,F12
WEB 2
根据提示,有JS屏蔽,测试右键和F12无法使用,那么使用view-source:url查看源码
view-source是一种协议,早期基本上每个浏览器都支持这个协议。后来Microsoft考虑安全性,对于WindowsXP pack2以及更高版本以后IE就不再支持此协议。但是这个方法在FireFox和Chrome浏览器都还可以使用。 如果要在IE下查看源代码,只能使用查看中的"查看源代码"命令.
WEB 3
先看下源码,没信息。根据提示和一般流程,该想到信息可能藏在HTTP的报文中,可以使用BURPSUIT抓包或者F12
WEB 4
根据提示,访问url/robots.txt
访问url/flagishere.txt
robots协议也叫robots.txt,放在网站根目录下,作用是告诉爬虫,区分能被爬取的文件,但Disallow中的信息,暴露了重要文件 。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写
WEB 5
php source源代码文件,就是在浏览器无法查看到源代码的时候,可以尝试访问index.phps
但是大部分网站没有这个文件,作用比较小
WEB 6
根据提示,说明有压缩包,网站都位于WWW文件夹下(图中www.m123.com是另一个网站,Index.html+error本身就是127.0.0.1的网站)
所以直接打包WWW的话,文件名就是www.zip,网站常用Linux架设,所以格式通常是zip,直接访问下载(但实际场景中,仍是要用后台扫描工具爆破文件名)
WEB 7
提示版本控制,常用的有git和svn。访问url/.git(不能没有/,因为.git是git初始化后生成的文件夹),
WEB 8
访问url/.svn,也是初始化产生的文件夹,保存迭代记录
svn(集成式开发)、git(分布式开发)是主要区别
WEB 9
VIM意外退出自动生成.swp文件,但要注意的是.swp是直接加在原文件的后缀名之后的,所以访问index.php.swp
WEB 10
根据提示,查看cookie
WEB 11
域名解析会产生很多记录,如A记录、CNAME记录、MX记录、txt记录等,可借助网站分别查询,具体见 https://www.22.cn/help_34.html
WEB 12
只发现这个,根据提示说明有后台,尝试下admin,login等常见后台文件名。admin界面测试默认账号admin,密码。成功登录。
WEB 13
WEB 14
源码crtl+f,查找editor。知道可能有个/editor目录,进入文件
根据0day,得知可能在文件上传之类的地方,编辑器会直接遍历服务器自身的目录暴露信息,找到图片上传,
看到http://说明可远程传输文件,点击图片空间,找flag的位置
WEB 15
又是只给一个信息,仍考虑后台,还是admin,根据密保回答问题
WEB 16
php探针是用来探测空间、服务器运行状况和PHP信息用的,探针可以实时查看服务器硬盘资源、内存占用、网卡流量、系统负载、服务器时间等信息。探针的默认文件名tz.php,访问探针
可以查询phpinfo信息,找到flag
WEB 17
备份sql文件要使用backup语句,通常默认名会为backup.sql.根目录下直接查询。
不用纠结实际情况,基本都是目录爆破得文件名
WEB 18
不会有人真的去玩吧 :)
找找这个js游戏的判断条件,F12,source,js,发现
\u开头unicode编码格式,找个网站转换下
WEB 19
看源码,发现密码是密文,说明你输入的明文会给你自动加密,最后的判断也是密文判断。不用去解码。直接抓个POST包,把这个复制上去。
WEB 20
mdb文件是早期asp+access构架的数据库文件 直接查看url路径添加/db/db.mdb 下载文件通过txt打开(默认文件路径、文件名)
总结:CTF跟实战还是有较大区别,但这里只为了检测知识点,对某些软件、操作的默认路径、文件名有个印象即可,实战默认设置肯定是顺手尝试,大都依赖爆破目录。