【NLP】文本特征处理:n-gram特征和文本长度规范

🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。
🦅个人主页:@逐梦苍穹
📕所属专栏:人工智能
🌻gitee地址:xzl的人工智能代码仓库
✈ 您的一键三连,是我创作的最大动力🌹

1、本章目标

  1. 了解文本特征处理的作用.
  2. 掌握实现常见的文本特征处理的具体方法.
  3. 文本特征处理的作用:
    1. 文本特征处理包括为语料添加具有普适性的文本特征,如n-gram特征;
    2. 以及对加入特征之后的文本语料进行必要的处理,如长度规范;
    3. 这些特征处理工作能够有效的将重要的文本特征加入模型训练中,增强模型评估指标
  4. 常见的文本特征处理方法:
    1. 添加n-gram特征
    2. 文本长度规范

2、n-gram特征

2.1、概念

给定一段文本序列,其中n个词或字的相邻共现特征即n-gram特征,常用的n-gram特征是bi-gram和tri-gram特征,分别对应n为2和3。
image.png

2.2、举个例子

这个示例讲解了如何从词汇列表生成数值特征并扩展到 N-gram 特征
首先,理解 N-gram 特征的一些基本概念:

  • 词汇列表:是一个包含文本中所有词的列表。例如,给定一个句子 “是谁 鼓动 我心”,其词汇列表为 ["是谁", "鼓动", "我心"]
  • 数值映射列表:通常用于将每个词映射到一个唯一的数字(索引)。例如,可以将 ["是谁", "鼓动", "我心"] 映射为 [1, 34, 21]

N-gram 特征的意思是将文本中的相邻词对作为特征。例如,Bigram(2-gram)就是由两个相邻的词组成的特征。
假设有一个词汇列表 ["是谁", "鼓动", "我心"],对应的数值映射列表为 [1, 34, 21]
这些数值可以被视为单个词汇的特征(Unigram),即每个词在序列中的独立存在。
现在,假设你要考虑 Bigram 特征(2-gram),即两个相邻词的组合。
步骤:

  1. 识别相邻的词对:在列表中,“是谁” 和 “鼓动” 是相邻的,“鼓动” 和 “我心” 也是相邻的。
  2. 为每个相邻词对生成新的特征值
    • 假设数字 1000 代表 “是谁” 和 “鼓动” 的相邻关系。
    • 假设数字 1001 代表 “鼓动” 和 “我心” 的相邻关系。

结果:

  • 原始的数值映射列表 [1, 34, 21] 现在扩展为包含 Bigram 特征的 [1, 34, 21, 1000, 1001]

在这个例子中,N-gram 特征的引入使得特征表示不仅仅是词汇本身,还包括词汇之间的相邻关系(如 “是谁” 和 “鼓动” 的相邻)。通过引入这些特征,模型可以更好地捕捉词汇之间的上下文关系。
具体来说:

  • 原来的 [1, 34, 21] 仅表示单个词汇。
  • 添加了 Bigram 特征后,特征列表变为 [1, 34, 21, 1000, 1001],表示不仅有单个词汇的信息,还有相邻词对的信息。

2.3、代码

提取n-gram特征:

# -*- coding: utf-8 -*-
# @Author: CSDN@逐梦苍穹
# @Time: 2024/8/12 21:51
# TODO 一般n-gram中的n取2或者3, 这里取2为例
def create_ngram_set(input_list):
    # 使用 zip 和列表推导式生成 n-gram 特征
    ngram_set = set(zip(*[input_list[i:] for i in range(ngram_range)]))
    return ngram_set


if __name__ == '__main__':
    ngram_range = 2
    example_input = [1, 4, 9, 4, 1, 4]
    print(create_ngram_set(example_input))
    # Output: {(4, 9), (4, 1), (1, 4), (9, 4)}

输出效果:

# 该输入列表的所有bi-gram特征
{(3, 2), (1, 3), (2, 1), (1, 5), (5, 3)}

3、文本长度规范及其作用

一般模型的输入需要等尺寸大小的矩阵,因此在进入模型前需要对每条文本数值映射后的长度进行规范,
此时将根据句子长度分布分析出覆盖绝大多数文本的合理长度,
对超长文本进行截断,对不足文本进行补齐(一般使用数字0),这个过程就是文本长度规范
文本长度规范的实现:

# -*- coding: utf-8 -*-
# @Author: CSDN@逐梦苍穹
# @Time: 2024/8/12 22:39
# 从 Keras 的 preprocessing 模块中导入 sequence,用于序列处理
from keras.preprocessing import sequence
# 根据数据分析中句子长度的分布,确定覆盖 90% 左右语料的最短长度
# 这里假定 cutlen 为 10,意味着我们将所有的句子统一处理为长度为 10 的序列
cutlen = 10
def padding(x_train):
    """
    description: 对输入文本张量进行长度规范,确保所有文本的长度一致
    :param x_train: 文本的张量表示, 形如: [[1, 32, 32, 61], [2, 54, 21, 7, 19]]
                     这是一个二维列表,其中每个子列表表示一条文本的词汇索引序列
    :return: 进行截断补齐后的文本张量表示,输出的形状为 (len(x_train), cutlen)
             如果文本长度小于 cutlen,则补齐至 cutlen;如果文本长度大于 cutlen,则截断至 cutlen
    """
    # 使用 sequence.pad_sequences 函数对序列进行补齐(或截断)
    # pad_sequences 会将每个序列截断或补齐到相同的长度 cutlen
    # 默认情况下,较短的序列会在前面补 0(默认补在序列的左侧),
    # 较长的序列会从前面截断(即保留序列的最后 cutlen 个元素)
    return sequence.pad_sequences(x_train, cutlen)

if __name__ == '__main__':
    # 假定 x_train 里面有两条文本,一条长度大于 10,一条长度小于 10
    x_train = [
        [1, 23, 5, 32, 55, 63, 2, 21, 78, 32, 23, 1],  # 长度为 12,超过了 cutlen
        [2, 32, 1, 23, 1]  # 长度为 5,少于 cutlen
    ]

    # 调用 padding 函数,对 x_train 中的序列进行补齐(或截断)
    res = padding(x_train)

    # 输出处理后的结果
    # 预期输出:
    # array([[ 5, 32, 55, 63,  2, 21, 78, 32, 23,  1],   # 第1条序列被截断至长度10
    #        [ 0,  0,  0,  0,  0,  2, 32,  1, 23,  1]])  # 第2条序列前面补5个0至长度10
    print(res)

输出:

E:\anaconda3\python.exe D:\Python\AI\自然语言处理\7-文本长度规范.py 
2024-08-12 22:44:53.195415: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2024-08-12 22:44:54.269741: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
[[ 5 32 55 63  2 21 78 32 23  1]
 [ 0  0  0  0  0  2 32  1 23  1]]

Process finished with exit code 0

4、小结

  1. 学习了文本特征处理的作用:
    1. 文本特征处理包括为语料添加具有普适性的文本特征,如:n-gram特征,以及对加入特征之后的文本语料进行必要的处理,如:长度规范. 这些特征处理工作能够有效的将重要的文本特征加入模型训练中,增强模型评估指标
  2. 学习了常见的文本特征处理方法:
    1. 添加n-gram特征
    2. 文本长度规范
  3. 学习了什么是n-gram特征:
    1. 给定一段文本序列,其中n个词或字的相邻共现特征即n-gram特征,常用的n-gram特征是bi-gram和tri-gram特征,分别对应n为2和3
  4. 学习了提取n-gram特征的函数:create_ngram_set
  5. 学习了文本长度规范及其作用:
    1. 一般模型的输入需要等尺寸大小的矩阵,因此在进入模型前需要对每条文本数值映射后的长度进行规范,此时将根据句子长度分布分析出覆盖绝大多数文本的合理长度,对超长文本进行截断,对不足文本进行补齐(一般使用数字0),这个过程就是文本长度规范.
  6. 学习了文本长度规范的实现函数:padding
  • 15
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

逐梦苍穹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值