一起学python-2发现群组-文章抓取过滤格式

在抓取文章内容时,遇到包含大量HTML标签的问题,通过正则表达式成功过滤,实现文章正文的提取。虽然仍存在如 等特殊字符问题,但已能基本满足需求。耗时约1.5小时完成了5070篇文章的抓取,后续将进行分词处理和公共词汇提取。
摘要由CSDN通过智能技术生成

接到上页 https://blog.csdn.net/naner3344/article/details/81146518 我们已经把文章清单列表抓取了,接下来我们就是逐一抓取文章

抓取文章内容比上页还要简单些,但是一抓下来发现里面混了很多html标签

这个里面大部分都是html标签, 比较麻烦,尝试了很多种方法去除都不是很好,最后看见别人用正则表达式,试了一下效果很好

 pattern = re.compile(r'<[^>]+>', re.S)
    result = pattern.sub('', str(html))

效果图

基本还行吧,但是还有些特殊的东西如 &nbsp 这种东西在网页里面是解析成空格,但是爬虫不知道,这个需要后面改,先那样吧。 

然后开爬,代码走起

 

#python 3
# encoding: utf-8
import sys
import io
import requests
from bs4 import Beautifu
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值