NLP常用python工具包

1-文法分析
英语

  • StanfordNLP
    https://github.com/stanfordnlp/stanfordnlp [python]
  • NLTK
    https://github.com/nltk/nltk [python]
  • spacy
    https://github.com/explosion/spaCy [python/cython]

中文

  • NLTK
    https://github.com/nltk/nltk [python]

  • ltp
    https://github.com/HIT-SCIR/ltp

  • lac
    https://github.com/baidu/lac

  • StanfordNLP
    https://github.com/stanfordnlp/stanfordnlp [python]

  • thulac
    https://github.com/thunlp/THULAC-Python [python]

  • jieba
    https://github.com/fxsjy/jieba [python]

  • SnowNLP(MIT)

  • pynlpir

python 工具包

调查除下列包之外:{
scipy
numpy
sklearn
pandas
matplt
iPython
PyBrain
PyML - machine learning in Python
Milk:Machine learning toolkit in Python.
PyMVPA: MultiVariate Pattern Analysis (MVPA) in Python
Pyrallel - Parallel Data Analytics in Python
Monte - gradient based learning in Python
xgboost
}

1.gensim{
Corpora and Vector Spaces
Topics and Transformations:LSA,LDA,TF-IDF,
Experiments on the English Wikipedia
Distributed Computing:word2vec

}

2.jieba{
功能 1):分词
功能 2) :添加自定义词典
功能 3) :关键词提取
功能 4) : 词性标注
功能 5) : 并行分词
功能 6) : Tokenize:返回词语在原文的起始位置

}

3.NLTK{
Tokenize and tag some text:
Identify named entities:
Display a parse tree:
它提供了 WordNet 这种方便处理词汇资源的借口,还有分类、分词、除茎、标注、语法分析、语义推理等类库
}

4.TextBlob{
词性标注,
名词性成分提取,
情感分析,
文本翻译

}

5.PyNLPI{
处理N元搜索,计算频率表和分布,建立语言模型。他还可以处理向优先队列这种更加复杂的数据结构,或者像 Beam 搜索这种更加复杂的算法。
Segmenting Text
Getting Key Words

}

6.spaCy{结合Python和Cython:是具有工业级强度的Python NLP工具包
英文断句
词干化(Lemmatize):
词性标注(POS Tagging):
命名实体识别(NER):
名词短语提取:

}

7.polyglot{
Tokenization
Language detection
Morphological analysis
Named Entity Recognition
Sentiment Analysis
Word Embeddings
}

参考文献:
1、https://blog.csdn.net/u010212101/article/details/94740460
2、https://blog.csdn.net/Scotfield_msn/article/details/72904863

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
NLP(自然语言处理)是一门研究如何使计算机能够理解和处理人类语言的领域。Python是一种广泛用于编程的编程语言。结合PythonNLP可以进行各种自然语言处理任务,如文本分类、命名实体识别、情感分析等。在Python中,有许多流行的库和工具可供使用,以便进行NLP任务。以下是一些常用Python库和工具: 1. NLTK(自然语言工具包):它是Python中最常用NLP库之一,提供了许多用于文本预处理、词性标注、词袋模型、语法分析等任务的功能。 2. spaCy :这是另一个流行的Python库,它提供了高效的自然语言处理功能,包括分词、词性标注、命名实体识别和依赖解析等任务。 3. TextBlob :这是一个易于使用的Python库,它提供了一系列简单的API,用于处理常见的NLP任务,如情感分析、词性标注和文本分类。 4. Gensim :它是一个用于主题建模和文本相似度计算的Python库,可以用于处理大规模的文本数据。 5. Scikit-learn :这是一个通用的机器学习库,其中包含了许多用于文本分类、情感分析和文本聚类等任务的算法。 这些库和工具为Python开发者提供了丰富的功能和资源,便于进行各种NLP任务的开发和实验。你可以根据具体的需求选择适合的库和工具,并结合相关的算法和技术来处理自然语言数据。希望这些信息能够帮助到你。 NLTK官方网站:https://www.nltk.org/ spaCy官方网站:https://spacy.io/ TextBlob官方网站:https://textblob.readthedocs.io/ Gensim官方网站:https://radimrehurek.com/gensim/ Scikit-learn官方网站:https://scikit-learn.org/stable/

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值