信息收集

WEB

可以通过ping网站切换域名和ip进行搜索
waf主流 宝塔(定性不是waf,特指自带的防护),云盾(安骑士),安全狗(很老了)
安全公司定制软件 但是它们的性质一般是一样的
一般有waf的网站不要乱扫,不然可能被ban IP,影响后续测试。
waf识别 wafw00f GitHub项目
502一般是被防火墙拦截了
有些指纹头带有X-Powerd-By:WAF,可以做判断有无WAF的标准,但不普遍适用且无法准确判断是哪款WAF

#CMS识别技术
#源码获取技术
#架构信息获取
#站点搭建分析
目录型站点 不同站点仅是目录不同A/B A/C,增加目标
端口类网站 与目录型类似,有的管理员使用目录,而有的使用端口
子域名两套CMS 工具Layer子域名挖掘机,扫80,8080,8000等端口
类似域名 例如321.com改为三二一.com,历史域名,老页面可能还在运行
旁注,c站 同服务器不同站点,IP网段,但现在已经不太实用,可以利用第三方接口,旁注查询
搭建软件特征网站 例如phpstudy等搭建的网站存在已知漏洞。例如:一些特殊server标头,还有8888端口是宝塔特有的控制端口,进而判断

APP

首先尝试提取web,提取不到则需要逆向操作
Burpsuite 不多解释
APK一键提取反编译
使用APKANALYSER,将apk放入apps文件夹,运行结果存于result目录。需要java知识

其他

有IP无WEB界面(有网站) 45.33.42.112
#端口扫描 nmap -sV(端口版本) IP
#黑白引擎搜索 Google和shodan等,对结果进一步漏洞搜索,要反复反复反复
需要注意,有些国内网站可能会扫出国外网址,这是网站管理者在做引擎或优化的时候刚好把用到的国外网站写上去了,进而被爬取到,实际上它们是与目标不相关
#接口扫描 第三方网站
#前面说的近似域名查询 通过备案信息查询
caredaily.com 仍然要注意的是,阿里云的服务器搭载的网站打不开可能是由于安全保护屏蔽了,并非真的打不开,有时可以挂个代理试一试
还可以使用网页快照
Github监控
需要python3 server酱(企业微信)
摘自weixiao9188大佬,非常感谢!!!
其他步骤按照server酱网站的教程来即可

# Title: wechat push CVE-2020
# Date: 2020-5-9
# Exploit Author: weixiao9188
# Version: 4.0
# Tested on: Linux,windows
# cd /root/sh/git/ && nohup python3 /root/sh/git/git.py &
# coding:UTF-8
import requests
import json
import time
import os
import pandas as pd
time_sleep = 60 #每隔20秒爬取一次
while(True):
    headers1 = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3741.400 QQBrowser/10.5.3863.400"}
    #判断文件是否存在
    datas = []
    response1=None
    response2=None
    if os.path.exists("olddata.csv"):
        #如果文件存在则每次爬取10个
        df = pd.read_csv("olddata.csv", header=None)
        datas = df.where(df.notnull(),None).values.tolist()#将提取出来的数据中的nan转化为None
        requests.packages.urllib3.disable_warnings()
        response1 = requests.get(url="https://api.github.com/search/repositories?q=CVE-2020&sort=updated&per_page=10",headers=headers1,verify=False)
        response2 = requests.get(url="https://api.github.com/search/repositories?q=RCE&ssort=updated&per_page=10",headers=headers1,verify=False)

    else:
        #不存在爬取全部
        datas = []
        requests.packages.urllib3.disable_warnings()
        response1 = requests.get(url="https://api.github.com/search/repositories?q=CVE-2020&sort=updated&order=desc",headers=headers1,verify=False)
        response2 = requests.get(url="https://api.github.com/search/repositories?q=RCE&ssort=updated&order=desc",headers=headers1,verify=False)

    data1 = json.loads(response1.text)
    data2 = json.loads(response2.text)
    for j in [data1["items"],data2["items"]]:
        for i in j:
            s = {"name":i['name'],"html":i['html_url'],"description":i['description']}
            s1 =[i['name'],i['html_url'],i['description']]
            if s1 not in datas:
                #print(s1)
                #print(datas)
                params = {
                    "text":s["name"],
                    "desp":" 链接:"+str(s["html"])+"\n简介"+str(s["description"])
                }
                print("当前推送为"+str(s)+"\n")
                #print(params)
                requests.packages.urllib3.disable_warnings()
                requests.get("https://sctapi.ftqq.com/sendkey.send",params=params,headers=headers1,timeout=10,verify=False)
                #time.sleep(1)#以防推送太猛
                print("推送完成!\n")
                datas.append(s1)
            else:
                pass
                print("数据已在!")
    pd.DataFrame(datas).to_csv("olddata.csv",header=None,index=None)
    time.sleep(time_sleep)

获取最新的exp和cop
搜集资产信息 例如CMS源码
通过目标微信公众号获取更多站点,增加可能性还可以加入目标群聊进而利用社工获取内部信息
#whois查询 站长之家备案信息,也可社会工程
#网站证书查询网站 cert.sh
#高精度IP定位

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值