sqlmap百度爬虫

本文介绍了一个使用Python编写的脚本,旨在帮助自动化抓取百度搜索结果中的URL,并利用sqlmap工具进行安全检测。脚本依赖于lxml, pyquery和requests库,抓取的URL被保存在recode.txt文件中,适用于帮助减少手动查找和检测的工作量。" 35990629,3712423,数字电路设计:低功耗预计算技术,"['lowpower', 'VHDL', '功耗优化']
摘要由CSDN通过智能技术生成

bugs:

中文支持不好,没做特殊处理,仅是个人业余爱好

--------------------------------------------------------------------------

相信用过sqlmap的人都有自己一套找bug website的方法。

我也只是刚刚听身边朋友说这个利器,看他天天百度找url找的挺累了,

因此写了一个python脚本给他批量抓url,

然后再将抓到的url给sqlmap检测

工具:python 2.7(32位)、lxml-3.1.1.win32-py2.7、pyquery-1.2.13、requests-2.10.0


#!/usr/bin/python
#coding=GBK

import re
import requests
from pyquery import PyQuery as Pq

class BaiduSearchSpider(object):
    
    def __init__(self, searchText):
        self.url = "http://www.baidu.com/baidu?wd=%s&tn=monline_4_dg" % searchText
        self.headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_3) AppleWebKit/600.5.17 (KHTML, like Gecko) Version/8.0.5 Safari/600.5.17"}
        self._page = None

    def rePage(self,url):
  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值