fofa爬虫(python)

import requests
import base64
from lxml import etree
import time


search_data=''                //要爬取的内容
headers={
    # 'cookie':'你的cookie'
}
for yeshu in range(1,6):
    url='https://fofa.info/result?page='+str(yeshu)+'&qbase64='
    search_data_bs=str(base64.b64encode(search_data.encode("utf-8")),"utf-8")
    urls=url+search_data_bs
    print(urls)
    try:
        print('正在提取第'+str(yeshu)+'页')
        result=requests.get(urls,headers=headers).content
        # print(result.decode('utf-8'))
        soup=etree.HTML(result)

        ip_data=soup.xpath('//a[@target="_blank"]/@href')

        ipdata='\n'.join(ip_data)
        print(ip_data)
        with open(r'thinkphp5.txt','a+') as f:
            f.write(ipdata+'\n')
            f.close()
        time.sleep(0.5)
    except Exception as e:
        pass

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值