我订阅了近 100 个公众号,有时候想再找之前读过的文章,发现搜索起来特别困难,如果忘了收藏,估计得找半小时,更让人无语的是,文章已经发布者删除,或者文章因违规被删除。那么有没有这样的爬虫,可以将公众号的文章全部爬到本地,并提供便捷的搜索功能,这样当我想查找某类文章的时候会非常方便,同时文章都在本地,也不用担心被人删除。
最近正好看到一个牛逼的 Python 爬虫项目,就是爬取微信公众号的文章的,看了一下功能介绍,真是想见恨晚啊,作者水平真的是牛逼,我已经献出了自己的崇拜,特分享出来,你可以使用它的功能,也可以研究它的技术,请拿走不谢。访问项目地址,相信你完全有独立部署的能力。
项目地址:https://github.com/wonderfulsuccess/weixin_crawler
功能展示
UI主界面
![f2195472847df8edabb9aef9c67826a0.gif](https://i-blog.csdnimg.cn/blog_migrate/dd26e3595acabd88796ad656a6618223.gif)
爬虫主界面.gif
添加公众号爬取任务和已经爬取的公众号列表
![1eb2a54497d776f3223e3806ee6dc8f1.png](https://i-blog.csdnimg.cn/blog_migrate/e03ba31b82714ecb8e707c1d8825d99d.jpeg)
公众号.png
爬虫界面
![be2fdf70ab02cc31ae6687af5b538e82.png](https://i-blog.csdnimg.cn/blog_migrate/c92426ea49fed678a20240057b75d64e.jpeg)
设置界面
![6191bb55f0de9955b213a414364853d4.png](https://i-blog.csdnimg.cn/blog_migrate/a3d9b98388d5f49c514d057fa674bd69.jpeg)
设置.png
公众号历史文章列表
![75889c777d62a9f91f5957dc83950e5b.gif](https://i-blog.csdnimg.cn/blog_migrate/64b8d0913142b427da3162bbc2abddca.gif)