![](https://img-blog.csdnimg.cn/2020071322562044.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
NLP
文章平均质量分 88
NLP的相关资料,笔记及实践
xiaobai_Ry
不是大佬,可以称呼我为言小白哈
(๑•॒̀ ູ॒•́๑)啦啦啦,学习冲冲冲鸭,研究关注方向为前后端的开发,目标检测,图神经网络及医学影像分析(个人学的比较杂)。分享学习笔记及自制PPT(因为个人习惯用PPT做笔记)。一起学习一起加油吧~
展开
-
智能客服调研概述网站
智能客服调研概述网站综述型对话智能:国际视角,国内形势及案例学习:https://www.infoq.cn/article/AsSJ4cx5mLsa7SYl3-EY阿里小蜜阿里小蜜:智能服务技术实践及场景探索https://mp.weixin.qq.com/s/uzmcISuDbf7EkralufAKhA京东JIMI京东JIMI 技术架构https://www.jianshu.co...原创 2020-04-06 12:38:21 · 635 阅读 · 0 评论 -
聊天中文语料库对比(附上各资源链接)
聊天中文语料库对比主要中文聊天语料库如下:chatterbot豆瓣多轮PTT八卦语料青云语料电视剧对白语料贴吧论坛回帖语料微博语料小黄鸡语料共8个公开闲聊常用语料和短信,白鹭时代问答等语料。并对8个常见语料的数据进行了统一化规整和处理,达到直接可以粗略使用的目的。使用该项目,即可对所有的聊天语料进行一次性的处理和统一下载,不需要到处自己去搜集下载和分别处理各种不同的格式...转载 2020-04-10 23:59:20 · 43162 阅读 · 6 评论 -
6大中文分词工具测试比较
中文分词工具比较 6大中文分词器测试(jieba、FoolNLTK、HanLP、THULAC、nlpir、ltp)哈工大LTP、中科院计算所NLPIR、清华大学THULAC和jieba个人接触的分词器安装调用jieba“结巴”中文分词:做最好的 Python 中文分词组件https://github.com/fxsjy/jiebaTHULAC清华大学:一个高效的中文词法分析工具包ht...转载 2020-04-08 12:24:55 · 3786 阅读 · 0 评论 -
NLP笔记1_中文分词(数据预处理篇)
NLP笔记1_中文分词(数据预处理篇)如何实现准确并且迅速的中文分词一直是自然语言处理领域研究中的基础。当前主要的分词处理方法:基于字符串匹配的分词方法基于统计的分词方法基于理解的分词方法这三类分词技术代表了当前中文分词的发展方向,它们有着各自的优缺点。基于字符串匹配的分词算法基于字符串匹配的分词是通过构建一个固定的词表,对照这个词表,对输入的问句进行字符串截取和字符...原创 2020-04-22 23:48:13 · 2596 阅读 · 1 评论 -
LTP词性与语义表格(简洁版)
词性标注集 实体识别标注集 依存句法关系类型 语义角色类型 语义依存关系类型 词性标注集 TagDescription含义描述Examplerpronoun代词我们ngeneral noun名词苹果nsgeographical name地名北京wppunctuation标点,。!ksuffix后缀界, 率hprefi...转载 2020-04-25 00:16:47 · 2410 阅读 · 0 评论 -
Pyltp的安装及初步使用(快捷版,相关下载资源,分词,词性标注与语法分析)
Pyltp的安装第一步:pip install pyltp,如下图所示:报错1:原创 2020-04-23 22:48:27 · 642 阅读 · 0 评论 -
NLP笔记2_自定义词性与字典的实现
NLP笔记2_自定义词性与字典的实现怎么实现自定义词性,哎呀愁。看了一篇论文,作者是使用LTP实现的,但是作者没有仔细说明如何实现。在网上也看其他的博客,但是暂时还是找不到相对应较好的解决方法。希望其他博友如果知道,请指点一二。(未来还得继续学习)LTP没有办法实现,我就转向简单的jieba了,想说jieba一点也不结巴。Step1:准备自己的字典为了作业,收集了一些词汇,准备了自...原创 2020-04-24 15:03:52 · 988 阅读 · 2 评论