python实现文本检索-文本相似度算法

本文介绍了如何使用Python实现文本检索,重点讲解了基于Word2vec的词语相似度计算模型,利用gensim库和jieba进行中文分词。通过分步实现,包括设置cut_all和HMM参数,以及构建停用词表,来达到计算文本相似度的目的。
摘要由CSDN通过智能技术生成

目的

给定一个或多个搜索词,如“高血压 患者”,从已有的若干篇文本中找出最相关的(n篇)文本。

理论知识

文本检索(text retrieve)的常用策略是:用一个ranking function根据搜索词对所有文本进行排序,选取前n个,就像百度搜索一样。

算法:模型选择

  • 1、基于word2vec的词语相似度计算模型
  • 2、python的实现用到了gensim库
  • 3、“jieba”中文分词

分步实现:

  • jieba.cut

方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用
   HMM 模型
构建停用词表

[Python] 纯文本查看 复制代码
?
1
2
3
stop_words = 'demo/stop_words.txt'
stopwords = codecs.open(stop_words,'r',encoding='utf8').readlines()
stopwords = [ w.strip() for w in stopwords ]

 

结巴分词后的停用词性 [标点符号、连词、助词、副词、介词、时语素、‘的’、数词、方位词、代词]
[Python] 纯文本查看 复制代码
?
1
stop_flag = ['x', 'c', 'u','d', 'p', 't', 'uj', 'm', 'f', 'r']

 

对一篇文章分词、去停用词
[Python] 纯文本查看 复制代码
?
1
  • 3
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
TF-IDF算法是一种常用的文本相似度计算方法,可以用于计算网站页面的相似度分布。下面是一个使用Python实现TF-IDF算法计算网站页面相似度分布的示例代码: ```python import requests from bs4 import BeautifulSoup import re import numpy as np from sklearn.feature_extraction.text import TfidfVectorizer # 获取网页内容 def get_page_content(url): try: response = requests.get(url) html = response.text return html except: return "" # 解析网页内容并提取文本 def parse_html(html): soup = BeautifulSoup(html, 'html.parser') for script in soup(["script", "style"]): script.extract() text = soup.get_text() lines = (line.strip() for line in text.splitlines()) chunks = (phrase.strip() for line in lines for phrase in line.split(" ")) text = '\n'.join(chunk for chunk in chunks if chunk) return text # 计算相似度矩阵 def calculate_similarity_matrix(content_list): vectorizer = TfidfVectorizer(min_df=1, stop_words="english") tfidf = vectorizer.fit_transform(content_list) similarity_matrix = (tfidf * tfidf.T).toarray() return similarity_matrix # 打印相似度分布 def print_similarity_distribution(similarity_matrix): similarity_distribution = np.triu(similarity_matrix, k=1).flatten() similarity_distribution = similarity_distribution[similarity_distribution > 0] print("Mean similarity:", np.mean(similarity_distribution)) print("Median similarity:", np.median(similarity_distribution)) print("Max similarity:", np.max(similarity_distribution)) print("Min similarity:", np.min(similarity_distribution)) print("Standard deviation of similarity:", np.std(similarity_distribution)) # 示例代码 if __name__ == "__main__": urls = ["https://www.baidu.com/", "https://www.zhihu.com/", "https://www.google.com/"] content_list = [] for url in urls: html = get_page_content(url) content = parse_html(html) content_list.append(content) similarity_matrix = calculate_similarity_matrix(content_list) print_similarity_distribution(similarity_matrix) ``` 该示例代码获取了百度、知乎和谷歌三个网站的页面内容,并使用TF-IDF算法计算它们之间的相似度分布。可以根据需要修改示例代码中的网站列表,以计算其他网站之间的相似度分布。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值