python 公司名称 相似度分析_使用Python完成公司名称和地址的模糊匹配的实现

导入:

>>> from fuzzywuzzy import fuzz

>>> from fuzzywuzzy import process

1)

>>> fuzz.ratio("this is a test", "this is a test!")

out 97

>>> fuzz.partial_ratio("this is a test", "this is a test!")

out 100

fuzz.ratio()对位置敏感,全匹配。fuzz.partial_ratio()对位置敏感,搜索匹配。

2)

>>> fuzz._process_and_sort(s, force_ascii, full_process=True)

对字符串s排序。force_ascii:True 或者False。为True表示转换为ascii码。如果full_process为True,则会将字符串s转换为小写,去掉除字母和数字之外的字符(发现不能去掉-字符),剩下的字符串以空格分开,然后排序。如果为False,则直接对字符串s排序。

>>> fuzz._token_sort(s1, s2, partial=True, force_ascii=True, full_process=True)

给出字符串 s1, s2的相似度。首先经过 fuzz._process_and_sort()函数处理。partial为True时,再经过fuzz.partial_ratio()函数。partial为False时,再经过fuzz.ratio()函数。

>>> fuzz.token_sort_ratio("fuzzy wuzzy was a bear", "wuzzy fuzzy was a bear")

out 100

partial为False的_token_sort()

fuzz.partial_token_sort_ratio(s1, s2, force_ascii=True, full_process=True)

就是partial为True时的Fuzz._token_sort()

3)

>>> fuzz.token_set_ratio("fuzzy was a bear", "fuzzy fuzzy was a bear")

out 100

fuzz._token_set(s1, s2, partial=True, force_ascii=True, full_process=True)

当partial为False时,就是 fuzz.token_set_ratio()函数。

fuzz.partial_token_set_ratio(s1, s2, force_ascii=True, full_process=True)

partial为True的fuzz._token_set()函数。

4)

fuzz.QRatio(s1, s2, force_ascii=True, full_process=True)

full_process为True时,经过utils.full_process()函数。然后经过fuzz.ratio()函数。对顺序敏感。

fuzz.UQRatio(s1, s2, full_process=True)

就是 force_ascii为False的fuzz.QRatio()函数。

fuzz.WRatio(s1, s2, force_ascii=True, full_process=True)

使用另一种不同算法计算相似度。对顺序敏感。

UWRatio(s1, s2, full_process=True)

是force_ascii为False的fuzz.WRatio()函数。

总结:如果计算相似度的字符串只有字母和数字,直接可以用ratio()和partial_ratio()。但如果还有其他字符,而且我们想要去掉这些没用字符,就用下边的。下边的函数都对顺序不敏感,但token_sort_ratio()系列是全字符匹配,不管顺序。而token_set_ratio()只要第二个字符串包含第一个字符串就100,不管顺序。

5)

>>> choices = ["Atlanta Falcons", "New York Jets", "New York Giants", "Dallas Cowboys"]

>>> process.extract("new york jets", choices, limit=2)

[('New York Jets', 100), ('New York Giants', 78)]

>>> process.extractOne("cowboys", choices)

("Dallas Cowboys", 90)

>>> process.extract(query, choices, processor=default_processor, scorer=default_scorer, limit=5)

query是字符串,choices是数组,元素是字符串。 processor是对输入比较的字符串的处理函数,默认是fuzzywuzzy.utils.full_process(),即将字符串变为小写, 去掉除字母和数字之外的字符(发现不能去掉-字符),剩下的字符串以空格分开。scorer计算两个字符串相似度的函数,默认fuzz.WRatio()。 limit是输出个数。

输出为数组,元素为元组,元祖第一个匹配到的字符串,第二个为int型,为score。对输出按照score排序。

>>> process.extractWithoutOrder(query, choices, processor=default_processor, scorer=default_scorer, score_cutoff=0)

score_cutoff为一个阈值,当score小于该阈值时,不会输出。返回一个生成器,输出每个大于 score_cutoff的匹配,按顺序输出,不排序。

>>> process.extractBests(query, choices, processor=default_processor, scorer=default_scorer, score_cutoff=0, limit=5)

process.extractBests()和process.extract()都调用了process.extractWithoutOrder(),只不过process.extractBests()能传输 score_cutoff。

>>> process.extractOne(query, choices, processor=default_processor, scorer=default_scorer, score_cutoff=0)

也调用了process.extractWithoutOrder(),只不过输出一个score最高的值。

process.dedupe(contains_dupes, threshold=70, scorer=fuzz.token_set_ratio)

contains_dupes是数组,元素为字符串。

取出相似度小于 threshold的字符串,相似度大于 threshold的字符串取最长一个。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python 中有许多第三方库可用来计算文本相似度。常用的有: - `fuzzywuzzy`,它使用 Levenshtein 距离算法计算字符串之间的相似度。 - `spaCy`,它使用 Cosine Similarity 算法计算文本之间的相似度。 - `gensim` 中的 `doc2vec` 或 `word2vec`,它使用神经网络算法计算文本之间的相似度。 需要注意的是,文本相似度并不是唯一的评估方法,具体使用哪个库和算法还要根据你的场景来决定。 ### 回答2: Python语言有很多用于匹配文本相似度的库和工具。其中最常用的包括difflib、fuzzywuzzy、nltk和gensim。 difflib库提供了一些类和方法用于比较和匹配文本字符串的差异程度,比如SeqMatcher类可以用来计算两个序列之间的相似度,get_close_matches函数可以用来查找最接近的匹配项等。 fuzzywuzzy库是基于Levenshtein距离算法的文本匹配工具,可以衡量两个字符串之间的编辑距离,提供了一些模糊匹配的函数,如ratio函数用于计算两个字符串的相似程度,返回一个相似度百分比。 nltk库是一个自然语言处理工具包,其中包含了丰富的文本处理和匹配功能。它提供了一些用于标记文本、计算词频、提取关键词、词干化和词向量化的函数和类。 gensim库是一个用于语义建模和相似度计算的库,它提供了一些算法和模型,如word2vec和doc2vec,可以用来将文本转换为向量表示,并计算向量之间的相似度。 这些库与工具可以根据不同的文本相似度计算需求进行选择和使用。可以根据具体情况,选择合适的算法和模型,对文本进行预处理和特征提取,然后使用相应的函数和类进行相似度计算。 ### 回答3: Python中有多种方法来进行文本相似度匹配,常用的方法包括以下几种: 1. 余弦相似度(Cosine Similarity):计算两个向量的夹角余弦值,值域在[-1, 1]之间。可以使用Python中的scipy库中的cosine函数来计算。 2. 编辑距离(Edit Distance):通过计算将一个字符串转换为另一个字符串所需的最少编辑操作次数来衡量文本之间的相似度。可以使用Python中的Levenshtein库来计算编辑距离。 3. Jaccard相似度(Jaccard Similarity):计算两个集合的交集大小除以并集大小得到的相似度指标。可以使用Python中的set数据结构来计算。 4. 文本向量化(Text Vectorization):将文本转换为向量表示,常用的方法有词袋模型(Bag-of-Words)和TF-IDF。可以使用Python中的sklearn库中的CountVectorizer和TfidfVectorizer来实现。 除了这些常用的方法外,还有其他更复杂和高级的算法可以实现文本相似度匹配,如基于深度学习的模型(如BERT、Word2Vec等)和基于语义的模型(如WordNet、GloVe等),这些方法需要更复杂的模型和技术来实现。 总结起来,Python提供了多种库和工具来实现文本相似度匹配,可以根据具体需求选择合适的方法和算法来进行实现
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值