信息泄漏篇

本文详述了多种信息泄漏途径,包括robots.txt、敏感文件、历史文件残留、报错页面、物理路径、明文密码本地保存、入侵痕迹、HTTP头信息、目录浏览、默认页面、管理后台和控制台入口等,阐述了这些漏洞的危害和检测方法,提醒网站管理员关注这些潜在的安全风险。
摘要由CSDN通过智能技术生成

作者:实验室核心 cong1984  

1、robots.txt泄漏敏感信息

漏洞情况信息:

搜索引擎可以通过robots文件可以获知哪些页面可以爬取,哪些页面不可以爬取。

Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯,如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,比如网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。

检测手段:

1、检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到robots文件;

2、手工挖掘,直接在域名后输入/robots.txt进行查看。

造成的后果:

攻击者可通过发现robots.txt文件,收集网站的敏感目录或文件,从而有针对性的进行利用。

漏洞威胁等级:

低危:robots.txt中存在allow和disallow的具体内容泄露敏感目录信息。

2、敏感文件信息泄漏

漏洞情况信息:

敏感数据包括但不限于:口令、密钥、证书、会话标识、License、隐私数据(如短消息的内容)、授权凭据、个人数据(如姓名、住址、电话等)等,在程序文件、配置文件、日志文件、备份文件及数据库中都有可能包含敏感数据。

检测手段:

1、 检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到敏感数据,

2、 手工挖掘,根据web容器或者网页源代码的查看,找到敏感信息。

造成的后果:

攻击者可通过上述方式获取网站敏感文件,收集网站敏感信息,从而有针对性的进行利用。

漏洞威胁等级:

高危:返回含有重要的敏感信息的文件,比如数据库文件、代码的备份文件或svn、git版本控制文件等。

3、历史文件残留

漏洞情况信息:

应用遗留的过时文件、备份页面、渗透测试遗留文件、开发文件残留的测试文件等。

检测手段:

1、 常见检测方法是通过对网站进行web漏洞扫描,直接利用爬虫来爬取网站可能存在的路径以及链接,如果存在备份文件,则可通过web直接进行下载。

2、 也可以通过自行构造字典,对网站某一目录下,指定字典进行爆破,常见的扫描工具有wwwscan、御剑后台扫描工具等。

造成的后果:

攻击者可通过上述方式获取网站备份文件、过时文件、遗留文件等内容,收集网站敏感信息,从而有针对性的进行利用。

漏洞威胁等级:

高危:泄露重要敏感信息,或能够进行核心业务操作。

中危:泄露一般重要信息,做只能进行一般功能操作。

低危:页面泄露非重要信息,不能进行相关功能操作。

4、报错页面敏感信息泄漏

漏洞情况信息:

错误页面由服务器产生403、404、500等错误时,返回详细错误信息。报错信息中可能会包含服务器代码信息、数据库连接信息、SQL语句或者敏感文件的路径,为攻击者收集信息提供了方便。

检测手段:

1. 通过目录扫描或手工输入不存在的文件或路径,触发服务器产生

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值