xray 被动_google搜索爬取&xray被动扫描

本文介绍了一种自动化收集网页链接的方法,通过python脚本利用selenium驱动chrome浏览器,配合不同谷歌域名进行搜索,避免被封。搜索结果写入url.txt文件。然后使用Xray进行被动扫描。在运行前需要安装相关模块,配置chrome环境,并启动脚本main.py进行多轮迭代扫描。
摘要由CSDN通过智能技术生成

步骤

收集url至url.txt

python google.py

打开xray开始监听

python xray.py

自动化网页链接收集并打开

python scan.py

注意

1.需要安装selenium模块

2.安装chrome浏览器及chromedriver程序

3.chromedriver需要配置环境变量

4.需要添加证书至chrome

5.启动脚本前请删除或转移myscan_report.html以及url_spider.txt

启动

python main.py

运行环境

python3.7

PIP

pip install

selenium

urllib

requests

pyquery

threading

`from selenium import webdriver  # 用来驱动浏览器的

from selenium.webdriver.chrome.options import Options

from selenium.common.exceptions import TimeoutException

from selenium.webdriver.support.wait import WebDriverWait

import time

import os

from faker import Factory

import random

检查是否有残留url.txt文件

'''

if os.path.exists('url/url_0.txt'):

os.remove('url/url_0.txt')

else:

print("没有url/url_0.txt文件残留")

'''

pages = int(input("请输入扫描深度(页数):"))

with open('keyword.txt', 'r') as x:

for line in x:

word = line.replace('\n', '')

print("搜索关键词:"+word)

for page in range(0,pages):

print("正在爬取第"+str(page+1)+"页")

page = page*10

随机谷歌域名,防封

domain=random.choice(['www.google.com'

,'www.google.gl'

,'www.google.com.sv'

,'www.google.hn'

,'www.google.co.cr'

,'www.google.com.jm'

,'www.google.ht&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值