目的是将原始文本数据转换成适合LSTM模型处理的格式,并通过模型进行特征提取和分析,以完成各种自然语言处理任务:
-
原始文本(Raw Text):这是原始的文本数据,可能是一段文章、对话或任何其他形式的文本。
-
分词(Tokenization):分词是将连续的汉字序列切分成一个个独立的词或词组。由于计算机不能直接理解连续的文本,第一步是将文本分割成独立的词或标记(token)。
-
词汇编码(Dictionarization):将分词后的文本转换成数字形式,以便机器学习模型可以处理。这通常是通过创建一个词汇表(vocabulary)来实现的,词汇表中的每个词都会被分配一个唯一的数字ID。
-
填充句子到固定长度(Padding to Fixed Length):由于LSTM等循环神经网络(RNN)需要固定长度的输入,所以需要将不同长度的句子填充到相同的长度。这通常通过在句子的末尾添加填充标记(如0)来实现。
-
将词映射到词嵌入(Mapping Tokens to Embeddings):词嵌入是一种将词转换为固定大小的向量表示的技术。这些向量捕获了词之间的语义关系,每个词都被表示为一个高维空间中的点,语义上相似的词在向量空间中彼此靠近。这一步骤有助于模型理解词的意义和它们之间的关系。
-
输入到RNN(Feeding int