NLP-相似度度量

本文介绍了NLP中的相似度度量方法,包括TF-IDF和Word2Vec。TF-IDF是一种统计词频的方法,用于关键词提取。Word2Vec则将单词转化为固定维度的向量。此外,还探讨了预训练模型在NLP任务中的应用,如ELMo和BERT,以及词嵌入在降低维度和提高计算效率上的优势。
摘要由CSDN通过智能技术生成

一、提取特征阶段

1、TF-IDF

简介:TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。

两个重要的概念:

1)   TF:  词频 (term frequency, TF) 指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被归一化(分子一般小于分母 区别于IDF),以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词频,而不管该词语重要与否。)

考虑到文章有长短之分,可以对“词频”进行标准化处理:

或者

2)IDF:  逆向文件频率 (inverse document frequency, IDF) 是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。

需要一个语料库(corpus),用来模拟语言的使用环境。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
余弦相似度作为相似度度量有以下优点和缺点: 优点: 1. 简单易懂:余弦相似度是一种直观易懂的相似度度量方法,不需要深入的数学理论知识。 2. 对文本长度不敏感:余弦相似度不受文本长度的影响,因此适用于任意长度的文本。 3. 不受文本方向的影响:余弦相似度不考虑文本的方向,因此在文本比较时是无方向的。 4. 可以处理稀疏向量:余弦相似度可以有效地处理稀疏向量,这在自然语言处理中非常有用。 5. 适用于高维数据:余弦相似度在高维数据中表现良好,因为在高维空间中,向量之间的距离很难计算。 6. 适用于文本分类:余弦相似度可以用来计算文本之间的相似度,因此可以用于文本分类。 7. 适用于推荐系统:余弦相似度可以用于计算用户之间的相似度,因此可以用于推荐系统。 8. 可以处理词袋模型:余弦相似度可以用于处理词袋模型,因为它可以将文本表示为向量形式。 9. 不受绝对值的影响:余弦相似度只受向量的方向影响,而不受向量的绝对值大小的影响。 10. 可以与其他相似度度量方法结合使用:余弦相似度可以与其他相似度度量方法结合使用,从而提高相似度度量的准确性。 缺点: 1. 不考虑向量的重要性:余弦相似度只考虑向量的方向,而不考虑向量的重要性,因此可能会忽略一些重要的特征。 2. 对重复出现的单词敏感:余弦相似度对重复出现的单词敏感,因为它只考虑单词在文本中出现的次数。 3. 对文本的语法和语义不敏感:余弦相似度只考虑单词在文本中出现的次数,而不考虑单词的语法和语义,因此可能会忽略一些重要的信息。 4. 受向量的长度影响:余弦相似度受向量的长度影响,因此在计算相似度时需要对向量进行归一化处理。 5. 对稀疏向量计算较慢:余弦相似度在计算稀疏向量的相似度时比较慢,因为需要计算所有非零元素的乘积。 6. 对角度较大的向量计算不准确:余弦相似度对角度较大的向量计算不准确,因为角度较大的向量之间的差别很小。 7. 不适用于负数向量:余弦相似度不适用于负数向量,因为负数向量的方向很难确定。 8. 对相同向量计算相似度为1:余弦相似度对相同向量计算相似度为1,这可能会误导一些应用。 9. 不能解决语义相似度:余弦相似度不能解决语义相似度的问题,因为它只考虑单词在文本中出现的次数。 10. 对数据集的大小敏感:余弦相似度对数据集的大小敏感,因此需要对数据集进行采样或者降维处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值