Burpsuite简介
Burp Suite 是用于攻击web 应用程序的集成平台。它包含了许多工具,并为这些工具设计了许多接口,以促进加快攻击应用程序的过程。
Burpsuite针对漏洞
- 扫描方式:只检测经过Burpsuite代理服务器的地址,不爬取特点,发送有限请求
- 提交的密码为未加密的明文
- 不安全的cookie的属性,例如缺少Httponly和安全标志
- cookie的范围缺失
- 跨域脚本包含和站点引用泄露
- 表单值自动填充,尤其是密码
- SSL保护的内容缓存
- 目录列表
- 提交密码后应答延迟
- 目标列表
- 提交的密码后应答延迟
- session令牌的不安全传输
- 敏感信息泄露,例如内部IP地址,电子邮件地址,栈枝跟踪等信息泄露
- 不安全的ViewState的配置
- 错误或不规范的Content-Type指令
Crawl扫描目录
Crawl爬行配置文件之Scanconfiguration
Crwal Optimization | 爬行的优化 | 最大链接深度更快还是更完整 |
Maximum link depth:最大的爬行深度
crawl strategy爬行策略
Fastest最快的Faster很快的Normal普通的More complete爬得更加完整More complete爬得最完整的
Crawl爬行配置文件之Crawl Limits
Crwal Limits | 爬行最大限制 | 最大时间 最多链接 最大请求数 |
Crawl Limits爬行的限制
Maximum crawl time:设置爬行最长的时间默认150分钟
或者爬行了
Maximum unique locations discovered:爬行长达1500的地址结束 默认1500
Maximum request count:设置发送多少个HTTP请求后结束 默认为空
Crawl爬行配置文件之Login Functions
Login Function | 登陆注册 | 登陆操作:自动注册 用无效的用户名主动触发登陆失败 |
Login Functions如果有登陆页面是否进行登陆
Attempt to self-register a user 是否自行注册一个账户
Trigger login failusers(using invalid username)是否触发登陆失败页面
Crawl爬行配置文件之Handing Application Errors During Crawl
Handing Application | 错误处理 | 爬行过程中的错误处理,比如超时 |
Handing Application Errors During Crawl 错误处理
consecutive requests time out如果出现多少次爬取失败进行跳过
% of requests time out当站点出现百分之多少时连接超时进行跳过这个站点
Task details
Sacn type:扫描类型
Scope:扫描域名称
Configuration:扫描配置文件
Requests:HTTP请求次数
Errors:连接超时错误次数
Unique locations:发起的单独的地址,可以证明爬取到了很多重复的地址
Logger可以显示出详细的爬取的爬取页面
Crawl and Audit扫描目录 注意crawl and audit有两个配置文件 并且要配置audit审计的文件
crawl and audit爬行并且进行审计
注意crawl and audit有两个配置文件 并且要配置audit审计的文件
Audit Optimization | 审计优化 | 扫描的速度和精确度 |
Issues Reported | 问题报告 | 报告哪些漏洞;根据扫描类型或者漏洞类型来过滤,默认全选 |
Handing Application Errors During Audit | 审计过程出错的处理 | 比如连接失败和传输超时默认:如果一个插入点连续失败了两次,就跳过,不再发送请求(接口挂了) 如果连续两个插入点失败,跳过其他的插入点(网站挂了) |
Insertion Point Types | 插入点的类型 | URL参数值,Body里面的参数值,Cookie值参数名字,HTTP请求头,Body完整内容,URL文件名,URL目录 |
Modifying Parameter Locations | 插入点位置 | 替换,交叉检测 |
Ignored insertionPoint | 忽略的插入点 | |
FrequentclyOccurring Insertion Points | 插入点相同时 | 当大量的插入点结果没有区别的时候,更加高效地扫描 |
Misc Insertion Point Options | 杂项 | |
Javascript Analvsis | Javascript审计 |
Crawl and Audit审计配置文件之Audit Optimization审计的优化
Audit Optimization:审计的优化,决定速度,精确性。四个选项分别决定:
基于审计的值,是否跳过不太可能的漏洞检查。例如一个数字值就不会尝试目录遍历漏洞。
将经常出现的问题进行合并。
自动维持 session。只在当选择 Crawl and Audit 模式才有作用。
在必要时遵循重定向。可以在Project options.HTTP.Redirections 设置具体的重定向条件
Crawl and Audit审计配置文件之Issues Reported
Issues Reported审计扫描结果报告
Select by scan type:进行审计的类型选择
passive:被动扫描
Light activer:高危漏洞主动扫描
Medium active:中危漏洞扫描
Intrusive active:侵入漏洞扫描
Javascript analysis:javascript的漏洞扫描
Select individual issues:选择常见漏洞例如sql注入等
忽略的插入点,可以自行设置更改
Crawl and Audit审计配置文件之Handing Application Errors During Audit
扫描时遇见错误处理,和crawl模块一样
if [2] consecutive audit checks fail,skip remaining checks in the current insertion point如果连续两次进行审计失败的插入点进行跳过
if [2] consecutive insertion points fail,skip remaining insertion points,and flag audit item as failed如果两个插入点失败了,那么所有插入点都进行跳过
consecutive requests time out如果出现多少次爬取失败进行跳过
% of requests time out当站点出现百分之多少时连接超时进行跳过这个站点
Crawl and Audit审计配置文件之Insertion Point Types
审计插入点配置
URL parameter values:URL地址插入值
Body parameter values:Body里面插入值
Cookie parameter values:Cookie里面插入值
Paramter name:URL参数名字插入(可以造成文件包含漏洞等)
HTTP headers:http消息头插入
Entire body(for relevant conten types):整个body插入
URL path filename:URL地址filename参数插入值
URL path folders:URL中的路径文件夹插入值
Crawl and Audit审计配置文件之Modifying Parameter Locations
Modifying Parameter插入点位置替换,交叉检测
URL to body:将URL中的测试值放在Body中
URL to cookie:将URL中的测试值放在cookie中
Body to URL:将Body测试值放在URL中
Body to cookie:将Body测试值放在cookie中
Cookie to URL:将cookie值的测试值放在URL中
Cookie to body:将cookie值的测试值放在body中
Crawl and Audit审计配置文件之Ignored Insertion Points
忽略的插入点,可以自行设置更改
Crawl and Audit审计配置文件之Frequently Occurring Insertion Points
Frequently Occurring Insertion Points:当大量的插入点结果没有区别的时候,更高效的扫描