步骤
收集url至url.txt
python google.py
打开xray开始监听
python xray.py
自动化网页链接收集并打开
python scan.py
注意
1.需要安装selenium模块
2.安装chrome浏览器及chromedriver程序
3.chromedriver需要配置环境变量
4.需要添加证书至chrome
5.启动脚本前请删除或转移myscan_report.html以及url_spider.txt
启动
python main.py
运行环境
python3.7
PIP
pip install
selenium
urllib
requests
pyquery
threading
`from selenium import webdriver # 用来驱动浏览器的
from selenium.webdriver.chrome.options import Options
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.support.wait import WebDriverWait
import time
import os
from faker import Factory
import random
检查是否有残留url.txt文件
'''
if os.path.exists('url/url_0.txt'):
os.remove('url/url_0.txt')
else:
print("没有url/url_0.txt文件残留")
'''
pages = int(input("请输入扫描深度(页数):"))
with open('keyword.txt', 'r') as x:
for line in x:
word = line.replace('\n', '')
print("搜索关键词:"+word)
for page in range(0,pages):
print("正在爬取第"+str(page+1)+"页")
page = page*10
随机谷歌域名,防封
domain=random.choice(['www.google.com'
,'www.google.gl'
,'www.google.com.sv'
,'www.google.hn'
,'www.google.co.cr'
,'www.google.com.jm'
,'www.google.ht&#