记录自己python爬虫的学习过程-北京新发地数据抓取

正在b站学习关于bs4解析库的知识点,练习抓取北京新发地网页的数据。在梳理网页跳转时,发现新发地-价格行情这个网页中的标签信息不全,缺乏蔬菜信息,在Network中发现是另外一个网址以json的形式存储着数据,网址为http://www.xinfadi.com.cn/getPriceData.html。同时发现该请求为post请求,网页换页的数据保存在Form Data中,因为替换Form Data中的current可以实现换页抓取数据。代码很简单,如下:

import requests
import json
url = "http://www.xinfadi.com.cn/getPriceData.html"
count = 0
for page in range(1,4):
    FormData = {
    'limit':20,
    'current':page,
    }
    resp = requests.post(url,data=FormData)
    html = resp.text
    content = json.loads(html)
    veg_info = content["list"]
    for dic in veg_info:
        count += 1
        print(dic)
        print("这是第{}个数据".format(count))

特此记录下来,方便之后自己学习使用!这是前三页数据的抓取,最后数据形似是dict字典形式的数据。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值