NLP
文章平均质量分 80
Ft4Dream
这个作者很懒,什么都没留下…
展开
-
对搜狗提供的中文语料库进行文本分词过程中的java笔记
此笔记用于对我在分词过程中用到的JAVA方面的知识进行记录,以备后用。在分词过程中用到了搜狗部分的中文语料库(大部分是新闻等内容),还有Stanford Segementer分词器。笔记:1、System.getProperty(String, String);原型:Object getProperty(ParameterBlock paramBlock,String na原创 2016-03-03 18:17:08 · 2413 阅读 · 0 评论 -
Stanford Segment 使用笔记
斯坦福分词器对搜狗简化版语料库分词处理步骤:1、读取语料库2、对文件逐个分词3、每个文件分词完的同时存盘到指定路径package com.Seg;import java.io.*;import java.util.List;import java.util.Properties;import edu.stanford.nlp.ie.crf.CRFClassifier;原创 2016-03-04 01:20:07 · 2471 阅读 · 0 评论 -
重新实现关于Mikolov的集成文本分类实验(详细过程)-
关于NLP实验的实验演示过程记录。原创 2016-03-01 23:01:53 · 1608 阅读 · 0 评论