Python爬虫项目讲解:采集地方官方网站采购商品数据

前言

今天, 带大家采集地方官方网站的商品数据,其实这些公开的商品数据就是展示给用户看的,只不过我们通过爬虫采集下来可以更加方便我们看数据, 以及方便后续对数据做分析。

一起来看看吧!

本篇文章代码内容:

  1. 分析网页性质, 找数据请求的地址
  2. json数据的数据解析
  3. 如何保存成csv

环境介绍:

  • python 3.6
  • pycharm
  • requests
  • csv

爬虫案例实现的步骤:

  1. 找数据对应的url地址
  2. 发送指定地址的请求
  3. 数据的提取
  4. 数据保存

受害者地址:http://hljcg.hlj.gov.cn/

1. 找数据对应的url <统一资源定位符(链接地址)> 地址

原始表单数据

复制代码

url = 'http://hljcg.hlj.gov.cn/proxy/trade-service/mall/search/searchByParamFromEs'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'}

json_data = {"queryPage":{"platformId":20,"pageSize":28,"pageNum":1},"orderType":"desc","homeType":"10","isAggregation":"true","publishType":"1","orderColumn":"saleCount","cid":1000033,"businessType":"1","cids":[]}

复制代码

2. 发送指定地址的请求

复制代码

import requests  # 数据请求模块, 第三方模块
import pprint  # 格式化输出

response = requests.post(url=url, json=json_data, headers=headers)
json_data = response.json()  # 变量
pprint.pprint(json_data)

复制代码

3. 数据的提取,json提取

取下每一条商品数据

result_list = json_data['data']['itemList']['resultList']
# print(result_list)

for result in result_list:
    print(result)

键值对取值

skuName = result['skuName']  # 商品名字
maxPrice = result['maxPrice']  # 商品价格
pictureUrl = result['pictureUrl'].replace('\n', ' | ')  # 商品图片链接
print(skuName, maxPrice, pictureUrl)

4. 数据保存

import csv   # 数据保存模块, 内置模块

with open('商品数据.csv', mode='a', encoding='utf-8', newline='') as f:
    csv_write = csv.writer(f)
    csv_write.writerow([skuName, maxPrice, pictureUrl])

最后c#教程运行python基础教程代码得vb.net教程到结果

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值