2 动手学:文本预处理、语言模型、循环神经网络基础

本文介绍了深度学习中文本预处理的四个步骤,包括读入文本、分词、建立词典和转换为索引序列,并探讨了语言模型的基础,如n元语法的缺陷以及pytorch实现时序数据采样的方法。最后,简要概述了循环神经网络的基础知识。
摘要由CSDN通过智能技术生成

4 文本预处理

4.1 简单的文本预处理步骤
文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:
(1)读入文本
(2)分词
(3)建立字典,将每个词映射到一个唯一的索引(index)
(4)将文本从词的序列转换为索引的序列,方便输入模型

4.2 pytorch实现
(1)读入文本

# 读入文本
import collections
import re

# 下面的操作是读入文本的每一行,并将每一行的大写字母转换成小写字母,同时使用空格替换非字母字符
def read_time_machine():
    with open('/home/kesci/input/timemachine7163/timemachine.txt', 'r') as f:
        lines = [re.sub('[^a-z]+', ' ', line.strip().lower()) for line in f]
    return lines

lines = read_time_machine()
print('# sentences %d' % len(lines))

(2)分词

# 分词 返回结果为二维列表
def tokenize(sentences, token='word'):
    """Split sentences into word or char tokens"""
    if token == 'word':
        return [sentence.split(' ') for sentence in sentences]
    elif token == 'char':
        return [list(sentence) for sentence in sentences]
    else:
        print('ERROR: unkown token type '+token)

tokens = tokenize(lines)
tokens[0:2]

(3)建立字典,将每个词映射到一个唯一的索引(index)

# 建立字典
# tokens相当于tokenize的结果,即一个二维数据,为整个语料库中的词
# min_freq:词频的阈值,如果某个词出现的频率小于阈值,则可以直接忽视这个词
# tokens:
# pad: 在小批量中数据不等长时做填充
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值