Python爬虫,用第三方库解决下载网页中文本的问题

Python爬虫,用第三方库解决下载网页中文本的问题

 还在辛辛苦苦的查找网页规律,写正则或者其他方式去匹配文本内容吗?还在纠结怎么去除小说网站的其他字符吗?

先来看看下面2张图,都是某小说网站的小说内容

Python爬虫,用第三方库解决下载网页中文本的问题

 Python爬虫,用第三方库解决下载网页中文本的问题

 怎么样,是不是很简洁!这就是今天给大家介绍的库,newspaper库!

newspaper

python3.x安装: pip install newspaper3k

python2.7安装: pip install newspaper

简单的给大家说说它的功能:

首先是获取网页所有url的功能,我们以sina新闻为例子,写代码如下:

Python爬虫,用第三方库解决下载网页中文本的问题

 看,这就把新浪新闻主页的所有url链接抓到了,是不是很快捷!(当然结果还是需要各种筛选)

提取网页所有文本内容,这次我们随便找个新闻来试试!

Python爬虫,用第三方库解决下载网页中文本的问题

 是不是很方便~!!而且这个对小说网站依然有效(还记得开始的图吗?)!!大家可以去试试。

当然,这个库还有其他很多的功能,这里就不一一说明了,大家可以自行去摸索哦!

最后

这是一个非常不错的库,适合用来写爬虫,如有不懂的地方我在评论区等着你,关注一下,与你共享更多有用的知识。大家加油!

参考来源:https://github.com/codelucas/newspaper

转载于:https://my.oschina.net/u/3873244/blog/1835454

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值