关键词匹配优化(第1篇)—— 测试计算过程

博主采用one-hot编码方法对一百多个关键词进行文本向量化,通过Python的jieba包进行字级拆分,简化处理流程。在Excel中利用VBA进行字典操作和Countif公式实现one-hot编码。之后计划使用C#实现相同功能,并将通过余弦相似度计算新词与现有关键词的相似度,以判断新词的合适性。
摘要由CSDN通过智能技术生成

昨天大致把思路理清楚了,用one-hot的方式把关键词按字拆开编码,今天尝试可行性。

目前主流的文本向量化方式主要包括one-hot、tf (term-frequency)和tf-idf (term frequency–inverse document frequency)这三种,越往后准确度应该越高。

我的需求比较简单,只有一百多个相对较短的关键词,所以先用one-hot方式向量化,把整个流程跑通,再回来测试准确度的区别。

分词的话可以用python的jieba包,因为词语比较短,所以也先不分词了,按字拆分。

一百多个词拆下来一共200多个关键字,感觉也还ok。

思路的验证是在Excel中做的,毕竟数据量小,看起来也方便。

流程是:先用vba把词拆成字(用Excel公式也可以完成);用vba的字典功能把字去重放到首行;然后用countif公式得出one-hot编码。

关键词编码

后面遇到新词之后计算新词的编码,对比两个向量就可以计算相似度了。

向量的相似度用 余弦相似度 方法,不赘述,具体解释可以百度,公式如下。

余弦相似度公式

找了一段用numpy计算余弦相似度的代码,进行测试。

import numpy as np

def cos_sim(vector_a, vector_b):
    """
    计算两个向量之间的余弦相似度
    :param vector_a: 向量 a 
    :param vector_b: 向量 b
    :return: sim
    """
    vector_a = np.mat(vector_a)
    vector_b = np.mat(vector_b)
    num = float(vector_a * vector_b.T)
    denom = np.linalg.norm(vector_a) * np.linalg.norm(vector_b)
    sim = num / denom
    return sim

print( cos_sim(np.array([[1, 1, 1,1,1,1,1,1]]),np.array([[1, 2, 1,1,1,1,1,1]])) )

成功计算出这两个测试向量的相似度

目前整个计算流程基本算是跑通了,接下来就是用C#实现以上功能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值