学习笔记(09):Python爬虫开发-总结回顾

立即学习:https://edu.csdn.net/course/play/24454/306768?utm_source=blogtoedu

import requests
import json
if __name__ =="__main__":
    header = {
        "User-Agent": "Mozilla/5.0 (iPad; CPU OS 11_0 like Mac OS X) AppleWebKit/604.1.34 (KHTML, like Gecko) Version/11.0 Mobile/15A5341f Safari/604.1"
    }
    id_list = []  # c存储企业ID
    all_data_list = []  # 存储所有企业详情数据信息
    url="http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList"
    for page in range(1,6):
        page=str(page)
        data ={
            "on": "true",
            "page": page,
            "pageSize":"15",
            "productName":"",
            "conditionType": "1",
            "applyname":"",

        }
        json_ids =requests.post(url=url,headers=header,data=data).json()

        for dic in json_ids["list"]:
            id_list.append(dic["ID"])
        #获取企业详情数据
        #print(all_data_list)
    post_url ="http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById"
    for id in id_list:
        data={
           "id":id
        }
        datail_json = requests.post(url=post_url,headers=header,data=data).json()
            #print(datail_json)
        all_data_list.append(datail_json)
        # 持久化存储
    fp=open("./allDate.json","w",encoding="utf-8")
    json.dump(all_data_list,fp=fp,ensure_ascii=False,indent=4)
print("爬虫成功")

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值