python 爬虫数据清洗

最近学习python网络数据获取,看到了关于数据的清洗,觉得很好用,现贴出代码,权当记录。

# Python 数据清洗

#cleanInput() 功能:

#输入input,

#清除input中的'\n', 多余空格,文献标记[ ], 删除单个字符(除i/a 外),转化为utf-8编码格式以消除转义字符,

#输出2-grams列表 ngrams


from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
import string


def cleanInput(input):
input = re.sub('\n'," ",input)
input = re.sub('\[[0-9]*\]

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在进行爬虫数据清洗时,你可以使用Python的各种库和技术处理和清洗数据。下面是一些常见的方法和库: 1. 正则表达式:使用re模块来匹配和替换文本的特定模式。正则表达式可以用于从HTML标签提取文本、去除多余的空格、清除特殊字符等。 2. BeautifulSoup库:BeautifulSoup是一个优秀的HTML/XML解析库,它可以帮助你方便地从网页提取结构化数据,去除HTML标签或其他不需要的内容。 3. 字符串处理:使用Python内置的字符串处理方法,例如split、strip、replace等,可以对文本进行切分、去除空格、替换等操作。 4. 数据库操作:如果你需要将爬取到的数据存储到数据库,可以使用Python的数据库操作库(如MySQLdb、psycopg2等)来连接数据库、创建表格、插入数据等操作。 5. Pandas库:Pandas是一个强大的数据处理和分析库,它提供了各种功能来操作和清洗结构化数据。你可以使用Pandas来加载爬取到的数据,并进行数据过滤、重命名列、填充缺失值等操作。 6. 数据类型转换:根据需要,你可能需要将字符串转换为数字、日期等其他数据类型。Python提供了相应的函数和方法来实现这些转换。 7. 数据去重:在爬虫过程,可能会遇到重复的数据。你可以使用Python的集合(如set)来去除重复项,或者使用Pandas库的drop_duplicates()方法来去除DataFrame的重复行。 这些是一些常见的爬虫数据清洗方法和库,具体要根据你的需求和数据特点来选择合适的方法。希望对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值