python3 爬取36氪新闻网页

本文记录了在Windows 10环境下,使用Python3和Scrapy框架爬取36氪新闻网页的过程。尽管36氪网站存在反爬机制,返回的数据结构复杂,但通过分析动态JS加载、请求链接中的参数,尤其是识别必要的entity_type=post和page参数,成功实现了从搜索入口抓取新闻列表,包括标题、作者、日期、简要、标签和内容等信息。正则表达式被用来解析并转换数据为JSON格式,以便更方便地提取所需字段。
摘要由CSDN通过智能技术生成

一个做了反爬的36氪,返回数据恶心,感觉是一堆垃圾。这里只是记录一下爬取过程。

(一)爬取环境
  • win10
  • python3
  • scrapy
(二)爬取过程

(1)入口:搜索

image.png

(2)动态js数据加载,查看下一页操作:

image.png

(3)返回数据:

image.png

(4)请求链接


http://36kr.com/api//search/entity-search?page=4&per_page=40&keyword=机器人&entity_type=post&ts=1532794031142&_=1532848230039

分析:这里的ts及后面的都为时间戳格式,可不要,entity_type=post这个是必须要的,可变参数为page

(4)列表页的json数据,id为详情页链接所需标志

image.png

image.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值