这次写爬虫。我爬取了某个微信公众号的全部文章的
-
文章链接 url
-
文章标题 title
-
发布时间 update_time
-
封面链接 cover
-
阅读数 read_num
-
在看数 like_num
若想直接拿代码来用,可以直接跳到最后。
首先要找到所有文章链接地址
一般来说,网上是搜不到某个公众号的全部文章的。但是我们利用 微信公众号平台 就能够一次性找到。
要用到它,肯定需要先注册登录一个微信公众号。当我们来到后台界面。

进入素材管理——> 新建图文——> (上方的)超链接界面

当我们打开开发者工具,搜索点击某个公众号后,就会抓到一个get请求包

它返回的就是文章相关的信息(包含了,文章链接,文章标题,创建时间,封面地址等)

因此找到请求后,我们开始构造
url 肯定是不变的 https://mp.weixin.qq.com/cgi-bin/appmsg
请求头复制粘贴过去

get请求的参数params也能直接进行复制

这里的begin代表的是页数,如果需要更多数据,肯定是需要翻页的。多次请求改变begin的值就可以了
第一部分的代码如下
import requests
import time
import datetime
import pytz
url="https://mp.weixin.qq.com/cgi-bin/appmsg"
#我这里先把数据写入到txt文件中
f=open("微信公众号文章.txt",mode="w",encoding="utf-8")
headers={
#这里是你自己的headers
}
params={
#这里是你自己的params
}
begin=0
#发起第一次请求
resp=requests.get(url,headers=headers,params=params,verify=False)
data = resp.json()
while True:
time

最低0.47元/天 解锁文章
1756





