利用python爬取简单网页数据步骤_基于Python爬取fofa网页端数据过程解析

FOFA-网络空间安全搜索引擎是网络空间资产检索系统(FOFA)是世界上数据覆盖更完整的IT设备搜索引擎,拥有全球联网IT设备更全的DNA信息。探索全球互联网的资产信息,进行资产及漏洞影响范围分析、应用分布统计、应用流行度态势感知等。

安装环境:

pip install requests

pip install lxml

pip install fire

使用命令:

python fofa.py -s=title="你的关键字" -o="结果输出文件" -c="你的cookie"

代码如下:

import requests,time,base64,fire

from lxml import etree

def fofasc(s,o,c):

try:

sbase64 = (base64.b64encode(s.encode('utf-8'))).decode('utf-8')

cookies = {

"_fofapro_ars_session": c

}

headers = {

'User-Agent': 'Mozilla/5.0 (Linux; Android 7.1.2; PCRT00 Build/N2G48H; wv) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/66.0.3359.158 Safari/537.36 fanwe_app_sdk sdk_type/android sdk_version_name/4.0.1 sdk_version/2020042901 screen_width/720 screen_height/1280',

}

for i in range(1,1000):

url = "https://www.fofa.so/result?q="+s+"&qbase64="+sbase64+"&full=true&page="+str(i)

r = requests.get(url, headers=headers, cookies=cookies)

soup = etree.HTML(r.text)

result = soup.xpath('//*[@id="ajax_content"]/div/div/div/a/text()')

print(result)

if result != []:

for rs in result:

with open(o,mode="a+") as f:

f.write(rs+"\n")

else:

print("已经获取不到任何数据,爬取完毕!")

break

time.sleep(2)

except KeyboardInterrupt:

print('用户退出')

if __name__ == '__main__':

fire.Fire(fofasc)

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

本文标题: 基于Python爬取fofa网页端数据过程解析

本文地址: http://www.cppcns.com/jiaoben/python/325084.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬取FOFA数据的示例代码中的each_dic['ip'] = each[0] 表示将FOFA数据中每个元素的第一个值赋值给字典 each_dic 的 'ip' 键。 在使用 Python 爬取 FOFA 数据时,我们通常会通过编写代码来获取所需的数据,并存储成一个字典。在每次获取到一个数据元素时,我们可以使用列表的下标索引来访问相应的值。 例如,假设我们从 FOFA爬取到了一组数据,其中每个元素是一个列表,列表中的第一个值表示 IP 地址。我们使用 each[0] 这样的索引来获取每个元素的第一个值。 接下来,我们可以将每个元素的第一个值赋值给字典 each_dic 中的 'ip' 键。这样,每次获取到的 IP 地址就会被存储到字典 each_dic 中,以便后续的处理和使用。 示例代码如下: ```python # 导入所需的库 import requests # 设置请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 发送请求 response = requests.get('http://www.example.com', headers=headers) # 解析数据 data = response.json() # 创建字典 each_dic = {} # 遍历每个数据元素 for each in data: # 将每个元素的第一个值赋值给 'ip' 键 each_dic['ip'] = each[0] # 进行后续的处理和使用 # ... ``` 以上代码是一个简单的示例,演示了如何使用 Python 爬取 FOFA 数据,并将其中的每个元素的第一个值赋值给字典的 'ip' 键。实际使用中,可能还需要进行其他数据处理和存储操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值