![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
文章平均质量分 88
淡定的炮仗
好好学习天天向上
展开
-
pip 批量下载包与批量安装包
pip 批量下载包与批量安装包一、导出pip安装的包名将已安装的包名和版本号写入目录 ./yjk/requirements.txt文件中pip freeze> ./yjk/requirements.txt导出结果如下:aiohttp==3.8.1aiosignal==1.2.0async-timeout==4.0.2asynctest==0.13.0attrs==21.4.0certifi==2021.10.8charset-normalizer==2.0.10datacla原创 2022-01-21 19:54:40 · 7057 阅读 · 0 评论 -
(三)NLP HMM应用之中文分词
NLP HMM应用之中文分词HMM的典型介绍就是这个模型是一个五元组:StatusSet: 状态值集合(隐状态)ObservedSet: 观察值集合(输出文字集合)TransProbMatrix: 转移概率矩阵(隐状态)EmitProbMatrix: 发射概率矩阵(隐状态表现为显状态的概率)InitStatus: 初始状态概率(隐状态)HMM解决的三种问题:参数(StatusSet, TransProbMatrix, EmitRobMatrix, InitStatus)已知的情况下,求解观原创 2021-08-19 12:38:26 · 680 阅读 · 0 评论 -
(二)NLP-中文分词-HMM-维特比算法
中文分词一、词词是一个完整语义的最小单位。分词技术是词性标注、命名实体识别、关键词提取等技术的基础。1中文分词和欧语系的分词有什么不同或者说是难点的呢?主要难点在于汉语结构与印欧体系语种差异甚大,对词的构成边界方面很难进行界定。比如,在英语中,单词本身就是“词”的表达,一篇英文文章就是“单词”加分隔符(空格)来表示的,而在汉语中,词以字为基本单位的,但是一篇文章的语义表达却仍然是以词来划分的。因此,在处理中文文本时,需要进行分词处理,将句子转化为词的表示。这个切词处理过程就是中文分词,是通过计算机原创 2021-08-18 17:54:40 · 1539 阅读 · 0 评论 -
Finalshell软件安装使用
1、软件介绍FinalShell是一体化的的服务器,网络管理软件,不仅是ssh客户端,还是功能强大的开发,运维工具,充分满足开发,运维需求.特色功能:免费海外服务器远程桌面加速,ssh加速,本地化命令输入框,支持自动补全,命令历史,自定义命令参数。2、软件安装01、Finalshell软件下载所有版本下载页面:http://www.hostbuf.com/t/988.htmlWindows版下载地址:http://www.hostbuf.com/downloads/finalshell_i原创 2021-08-18 10:51:31 · 5206 阅读 · 5 评论 -
(一)关于NLP的概念和处理过程
关于NLP的概念和处理过程一、自然语言处理(Natural Language Processing)(1)自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。(2)自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。(3)自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人原创 2021-05-17 17:57:47 · 935 阅读 · 0 评论