深度学习算法
huangyi_906
拱卒
展开
-
jieba分词
这是一篇在应用jieba做中文分词的记录 参考:https://github.com/fxsjy/jieba概述在处理文本数据时,分析语句含义,要把中文的一整句话切分成一个个单词,通过对单词对分析完成语句含义对分析。jieba分词时处理中文单词分割对一种很好对算法包。特点支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常原创 2017-08-18 10:40:33 · 642 阅读 · 0 评论 -
翻译:Doc2vec指导
说明:新接触Doc2vec,从网上搜了一下用法,总觉得不是很清晰,偶然找到一片国外博客,觉得比较友好。在搜索资料时,深受英语阅读能力低下的困扰,有身在宝藏之中却不识,坐在盛宴桌边却不能动的无力感。所以尝试翻译并保留在这,本人能力有限,如有错误,请重拍。这是一篇2014年的博客,API有些已经过时,但不影响使用原文链接:https://rare-technologies.com/doc2vec-tut翻译 2017-11-25 13:28:49 · 2687 阅读 · 0 评论