文本相似度算法(余弦定理)

       最近由于工作项目,需要判断两个txt文本是否相似,于是开始在网上找资料研究,因为在程序中会把文本转换成String再做比较,所以最开始找到了这篇关于 距离编辑算法 Blog写的非常好,受益匪浅。

       于是我决定把它用到项目中,来判断两个文本的相似度。但后来实际操作发现有一些问题:直接说就是查询一本书中的相似章节花了我7、8分钟;这是我不能接受……

       于是停下来仔细分析发现,这种算法在此项目中不是特别适用,由于要判断一本书中是否有相同章节,所以每两个章节之间都要比较,若一本书书有x章的话,这里需对比x(x-1)/2次;而此算法采用矩阵的方式,计算两个字符串之间的变化步骤,会遍历两个文本中的每一个字符两两比较,可以推断出时间复杂度至少为 document1.length × document2.length,我所比较的章节字数平均在几千~一万字;这样计算实在要了老命。

       想到Lucene中的评分机制,也是算一个相似度的问题,不过它采用的是计算向量间的夹角(余弦公式),在google黑板报中的:数学之美(余弦定理和新闻分类) 也有说明,可以通过余弦定理来判断相似度;于是决定自己动手试试。

       首相选择向量的模型:在以字为向量还是以词为向量的问题上,纠结了一会;后来还是觉得用字,虽然词更为准确,但分词却需要增加额外的复杂度,并且此项目要求速度,准确率可以放低,于是还是选择字为向量。

       然后每个字在章节中出现的次数,便是以此字向量的值。现在我们假设:

       章节1中出现的字为:Z1c1,Z1c2,Z1c3,Z1c4……Z1cn;它们在章节中的个数为:Z1n1,Z1n2,Z1n3……Z1nm

       章节2中出现的字为:Z2c1,Z2c2,Z2c3,Z2c4……Z2cn;它们在章节中的个数为:Z2n1,Z2n2,Z2n3……Z2nm

       其中,Z1c1和Z2c1表示两个文本中同一个字,Z1n1和Z2n1是它们分别对应的个数,

       最后我们的相似度可以这么计算:

       程序实现如下:(若有可优化或更好的实现请不吝赐教)

01 public class CosineSimilarAlgorithm {
02     public static double getSimilarity(String doc1, String doc2) {
03         if (doc1 != null && doc1.trim().length() > 0 && doc2 != null
04                 && doc2.trim().length() > 0) {
05              
06             Map<Integer, int[]> AlgorithmMap = new HashMap<Integer, int[]>();
07              
08             //将两个字符串中的中文字符以及出现的总数封装到,AlgorithmMap中
09             for (int i = 0; i < doc1.length(); i++) {
10                 char d1 = doc1.charAt(i);
11                 if(isHanZi(d1)){
12                     int charIndex = getGB2312Id(d1);
13                     if(charIndex != -1){
14                         int[] fq = AlgorithmMap.get(charIndex);
15                         if(fq != null && fq.length == 2){
16                             fq[0]++;
17                         }else {
18                             fq = new int[2];
19                             fq[0] = 1;
20                             fq[1] = 0;
21                             AlgorithmMap.put(charIndex, fq);
22                         }
23                     }
24                 }
25             }
26  
27             for (int i = 0; i < doc2.length(); i++) {
28                 char d2 = doc2.charAt(i);
29                 if(isHanZi(d2)){
30                     int charIndex = getGB2312Id(d2);
31                     if(charIndex != -1){
32                         int[] fq = AlgorithmMap.get(charIndex);
33                         if(fq != null && fq.length == 2){
34                             fq[1]++;
35                         }else {
36                             fq = new int[2];
37                             fq[0] = 0;
38                             fq[1] = 1;
39                             AlgorithmMap.put(charIndex, fq);
40                         }
41                     }
42                 }
43             }
44              
45             Iterator<Integer> iterator = AlgorithmMap.keySet().iterator();
46             double sqdoc1 = 0;
47             double sqdoc2 = 0;
48             double denominator = 0;
49             while(iterator.hasNext()){
50                 int[] c = AlgorithmMap.get(iterator.next());
51                 denominator += c[0]*c[1];
52                 sqdoc1 += c[0]*c[0];
53                 sqdoc2 += c[1]*c[1];
54             }
55              
56             return denominator / Math.sqrt(sqdoc1*sqdoc2);
57         else {
58             throw new NullPointerException(
59                     " the Document is null or have not cahrs!!");
60         }
61     }
62  
63     public static boolean isHanZi(char ch) {
64         // 判断是否汉字
65         return (ch >= 0x4E00 && ch <= 0x9FA5);
66  
67     }
68  
69     /**
70      * 根据输入的Unicode字符,获取它的GB2312编码或者ascii编码,
71      *
72      * @param ch
73      *            输入的GB2312中文字符或者ASCII字符(128个)
74      * @return ch在GB2312中的位置,-1表示该字符不认识
75      */
76     public static short getGB2312Id(char ch) {
77         try {
78             byte[] buffer = Character.toString(ch).getBytes("GB2312");
79             if (buffer.length != 2) {
80                 // 正常情况下buffer应该是两个字节,否则说明ch不属于GB2312编码,故返回'?',此时说明不认识该字符
81                 return -1;
82             }
83             int b0 = (int) (buffer[0] & 0x0FF) - 161// 编码从A1开始,因此减去0xA1=161
84             int b1 = (int) (buffer[1] & 0x0FF) - 161// 第一个字符和最后一个字符没有汉字,因此每个区只收16*6-2=94个汉字
85             return (short) (b0 * 94 + b1);
86         catch (UnsupportedEncodingException e) {
87             e.printStackTrace();
88         }
89         return -1;
90     }
91 }

       程序中做了两小的改进,以加快效率:

       1. 只将汉字作为向量,其他的如标点,数字等符号不处理;2. 在HashMap中存放汉字和其在文本中对于的个数时,先将单个汉字通过GB2312编码转换成数字,再存放。

       最后写了个测试,根据两种不同的算法对比下时间,下面是测试结果:

       余弦定理算法:doc1 与 doc2 相似度为:0.9954971, 耗时:22mm

       距离编辑算法:doc1 与 doc2 相似度为:0.99425095, 耗时:322mm

       可见效率有明显提高,算法复杂度大致为:document1.length + document2.length

       原创blog,转载请注明http://my.oschina.net/BreathL/blog/42477

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
namespace ServiceRanking { /// <summary> /// Summary description for TF_IDFLib. /// </summary> public class TFIDFMeasure { private string[] _docs; private string[][] _ngramDoc; private int _numDocs=0; private int _numTerms=0; private ArrayList _terms; private int[][] _termFreq; private float[][] _termWeight; private int[] _maxTermFreq; private int[] _docFreq; public class TermVector { public static float ComputeCosineSimilarity(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFER LENGTH"); float denom=(VectorLength(vector1) * VectorLength(vector2)); if (denom == 0F) return 0F; else return (InnerProduct(vector1, vector2) / denom); } public static float InnerProduct(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFFER LENGTH ARE NOT ALLOWED"); float result=0F; for (int i=0; i < vector1.Length; i++) result += vector1[i] * vector2[i]; return result; } public static float VectorLength(float[] vector) { float sum=0.0F; for (int i=0; i < vector.Length; i++) sum=sum + (vector[i] * vector[i]); return (float)Math.Sqrt(sum); } } private IDictionary _wordsIndex=new Hashtable() ; public TFIDFMeasure(string[] documents) { _docs=documents; _numDocs=documents.Length ; MyInit(); } private void GeneratNgramText() { } private ArrayList GenerateTerms(string[] docs) { ArrayList uniques=new ArrayList() ; _ngramDoc=new string[_numDocs][] ; for (int i=0; i < docs.Length ; i++) { Tokeniser tokenizer=new Tokeniser() ; string[] words=tokenizer.Partition(docs[i]); for (int j=0; j < words.Length ; j++) if (!uniques.Contains(words[j]) ) uniques.Add(words[j]) ; } return uniques; } private static object
余弦定理是一种常用的文本相似度算法,可以用于计算两个文本之间的相似度,其原理是根据文本中词语的频率向量计算它们之间的夹角余弦值。以下是JAVA实现余弦相似度算法的代码: ```java import java.util.HashMap; import java.util.Map; public class CosineSimilarity { public static double cosineSimilarity(String text1, String text2) { // 将文本转换为向量 Map<String, Integer> vector1 = toVector(text1); Map<String, Integer> vector2 = toVector(text2); // 计算相似度 double dotProduct = 0.0; double magnitude1 = 0.0; double magnitude2 = 0.0; for (String term : vector1.keySet()) { if (vector2.containsKey(term)) { dotProduct += vector1.get(term) * vector2.get(term); } magnitude1 += Math.pow(vector1.get(term), 2); } for (String term : vector2.keySet()) { magnitude2 += Math.pow(vector2.get(term), 2); } double magnitude = Math.sqrt(magnitude1) * Math.sqrt(magnitude2); if (magnitude == 0) { return 0.0; } return dotProduct / magnitude; } private static Map<String, Integer> toVector(String text) { Map<String, Integer> vector = new HashMap<>(); String[] terms = text.split("\\s+"); for (String term : terms) { if (vector.containsKey(term)) { vector.put(term, vector.get(term) + 1); } else { vector.put(term, 1); } } return vector; } public static void main(String[] args) { String text1 = "This is a test"; String text2 = "This is a demo"; double similarity = cosineSimilarity(text1, text2); System.out.println("相似度:" + similarity); } } ``` 在上述代码中,toVector()方法将文本转换为向量,其中使用HashMap来存储每个词汇的词频。cosineSimilarity()方法计算两个文本向量的余弦相似度,其中使用了点积和向量的模长的概念。在main()方法中,我们传入两个文本并计算它们之间的相似度
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值