python爬虫——爬取微信文章

本文介绍了基于《精通Python网络爬虫》一书的学习体验,该书适合新手入门,详细讲解了网络爬虫实战技巧。分享了一个简单的微信文章爬虫代码,旨在学习用途,同时强调尊重网站,避免恶意爬取。
摘要由CSDN通过智能技术生成

最近几天看了会儿《精通python网络爬虫》,觉得这本书写的比较好,不仅仅因为这本书中的代码都是用python3编写的。这本书条例很清晰,代码全面,里面讲解的很详细,提到了实战过程中会遇到的坑以及相应的解决办法,所以非常适合新手入门。另外,这本书语言上也比较平实,代码、图、文字描述等,使得读起来和实战是没有障碍的。

下面是按照书中的内容,写的一个微信文章的小爬虫,仅作为学习记录。另外,提醒读者不要恶意爬人家网站,导致爬取网站的网络负载增加。

#%%
'''
使用方法:
1.设置要搜索的关键词 key
2.使用函数get_link_list()获取相应的链接,设置好pagestart,pageend
3.使用get_content()获取相应的文章并保存到本地
'''
#%%
'''
函数use_proxy():爬取单个网页,默认不使用代理服务器
参数说明:
proxy_addr : 传入的代理服务器地址
url : 爬取的网页
timeout : 网络最长允许延时时间

函数get_link_list():获取页面中所有文章的链接
参数说明:
key : 关键词,输入字符串,中/英文
pagestart : 爬取的文章开始页
pageend : 爬取的文章结束页
proxy : 代理IP,默认不使用代理服务器

函数get_content():将对应的微信链接中的所有文章取出来,写成html形式,写入filepath下
参数说明:
listurl : 是由get_link_list()函数得到的链接列表
filepat
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值