作者:实验室核心 cong1984
1、robots.txt泄漏敏感信息
漏洞情况信息:
搜索引擎可以通过robots文件可以获知哪些页面可以爬取,哪些页面不可以爬取。
Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯,如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,比如网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。
检测手段:
1、检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到robots文件;
2、手工挖掘,直接在域名后输入/robots.txt进行查看。
造成的后果:
攻击者可通过发现robots.txt文件,收集网站的敏感目录或文件,从而有针对性的进行利用。
漏洞威胁等级:
低危:robots.txt中存在allow和disallow的具体内容泄露敏感目录信息。
2、敏感文件信息泄漏
漏洞情况信息:
敏感数据包括但不限于:口令、密钥、证书、会话标识、License、隐私数据(如短消息的内容)、授权凭据、个人数据(如姓名、住址、电话等)等,在程序文件、配置文件、日志文件、备份文件及数据库中都有可能包含敏感数据。
检测手段:
1、 检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到敏感数据,
2、 手工挖掘,根据web容器或者网页源代码的查看,找到敏感信息。
造成的后果:
攻击者可通过上述方式获取网站敏感文件,收集网站敏感信息,从而有针对性的进行利用。
漏洞威胁等级:
高危:返回含有重要的敏感信息的文件,比如数据库文件、代码的备份文件或svn、git版本控制文件等。
3、历史文件残留
漏洞情况信息:
应用遗留的过时文件、备份页面、渗透测试遗留文件、开发文件残留的测试文件等。
检测手段:
1、 常见检测方法是通过对网站进行web漏洞扫描,直接利用爬虫来爬取网站可能存在的路径以及链接,如果存在备份文件,则可通过web直接进行下载。
2、 也可以通过自行构造字典,对网站某一目录下,指定字典进行爆破,常见的扫描工具有wwwscan、御剑后台扫描工具等。
造成的后果:
攻击者可通过上述方式获取网站备份文件、过时文件、遗留文件等内容,收集网站敏感信息,从而有针对性的进行利用。
漏洞威胁等级:
高危:泄露重要敏感信息,或能够进行核心业务操作。
中危:泄露一般重要信息,做只能进行一般功能操作。
低危:页面泄露非重要信息,不能进行相关功能操作。
4、报错页面敏感信息泄漏
漏洞情况信息:
错误页面由服务器产生403、404、500等错误时,返回详细错误信息。报错信息中可能会包含服务器代码信息、数据库连接信息、SQL语句或者敏感文件的路径,为攻击者收集信息提供了方便。
检测手段:
1. 通过目录扫描或手工输入不存在的文件或路径,触发服务器产生