文本预处理

文本预处理
    文本张量表示:
         word2vec之skipgram方式:
核心思想:给出一段文本,选择一定窗口获取数据集,利用中间词来预测上下文
        fasttext实现word2vec的训练
基本过程:
1.获取数据
2.训练模型(训练词向量)
3.向量的检验
4,超参数设定
5.模型的保存和加载
        WordEmbedding词向量
word2vec缺点
 静态方法,不一定解决一词多义问题
 实现过程
 借助nn.Embedding(vocab_size,embed_dim):vocab_size代表词汇(去重之后)的总量,embed_dim是我们设定的词向量维度;本质创建一个权重矩阵(充当向量矩阵),矩阵参数会随着模型的训练迭代更新
    文本数据分析
        文本数据分析的作用
1.帮助我们理解语料
2.可以分析语料中可能存在的问题,指导我们设定模型的超参数等功能
        标签数量分布
目的:查询样本是否均衡,如果样本过大,需要减少数据;如果样本过少,需要增加数据
        句子长度分布
目的:模型一般规定需要输入固定的尺寸,也就是长度统一,通过分析句子长度,可以明确大部分样本属于什么长度范围,然后进行句子的长短补齐或截断
        词频和高频词云
词频:这里指的是统计样本中词汇的总数量(需要去重)
高频词云目的;可以方便我们查看数据集中是否存在脏数据,进而实现人工智能的审核和清洗

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python是一种强大而流行的编程语言,广泛用于数据处理和文本分析。英文文本预处理是指在对英文文本进行分析之前对其进行必要的处理和清洗。以下是用Python进行英文文本预处理的一些常见步骤: 1. 去除标点符号:使用Python中的正则表达式或字符串处理函数,去除文本中的标点符号,例如逗号、句号等。这可以避免标点符号对后续分析和处理的干扰。 2. 分词:英文文本通常通过空格来区分单词,因此可以使用Python中的split()函数或第三方库(如NLTK)来将文本分割成单个单词。这一步骤很重要,因为在后续的文本分析中,单词是最基本的处理单位。 3. 去除停用词:停用词是指在文本分析中不被考虑的常见单词,如"the"、"is"等。Python的NLTK库提供了一个预定义的停用词列表,可以使用它来去除文本中的停用词。 4. 文本转小写:统一将文本转换为小写字母形式,这样可以避免针对大小写进行不必要的区分分析。 5. 词干提取:将单词还原为其原始形式,例如将"running"还原为"run"。Python的NLTK库提供了一些词干提取的方法,如Porter词干提取器。 6. 词袋模型:将文本转换为数值表示,用于后续的机器学习和文本分析。一种常见的方法是使用词袋模型,将每个文本表示为单词的频率向量。Python的Scikit-learn库提供了TF-IDF向量化器,可以实现这一功能。 以上是对英文文本预处理的一些常见步骤,可以根据具体需求和任务进行适当的调整和拓展。Python提供了丰富的文本处理工具和库,使得英文文本预处理变得更加高效和便捷。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值