Python 爬虫接单系列——抓包与 requests 库

该文介绍了如何使用Python的requests库进行网络请求,抓取特定URL的数据,并将提取的信息(如ps_name,create_time,fullregion_name)保存到trash.csv文件中。此过程涉及动态数据处理和静态数据存储。
摘要由CSDN通过智能技术生成

一、静态数据与动态数据

二、抓包并找到所需的 url 请求

import requests # 发送网络请求的工具包

url = 'https://ljgk.envsc.cn/OutInterface/GetPSList.ashx?regionCode=0&psname=&SystemType=C16A882D480E678F&sgn=53714a5a671094f0713121b8aa80c968545dda81&ts=1672728797782&tc=51567022'
resp = requests.get(url)
data = resp.json()

for i in data:
    ps_name = i['ps_name']
    create_time = i['create_time']
    fullregion_name = i['fullregion_name']
    with open('trash.csv', 'a+') as file: # 保存文件到 trash.csv
        file.write('{}, {}, {}\n'.format(ps_name, create_time, fullregion_name))

抓取到的结果 trash.csv 文件:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值