NLP
文章平均质量分 80
Ft4Dream
这个作者很懒,什么都没留下…
展开
-
对搜狗提供的中文语料库进行文本分词过程中的java笔记
此笔记用于对我在分词过程中用到的JAVA方面的知识进行记录,以备后用。 在分词过程中用到了搜狗部分的中文语料库(大部分是新闻等内容),还有Stanford Segementer分词器。 笔记: 1、System.getProperty(String, String); 原型:Object getProperty(ParameterBlock paramBlock,String na原创 2016-03-03 18:17:08 · 2413 阅读 · 0 评论 -
Stanford Segment 使用笔记
斯坦福分词器对搜狗简化版语料库分词处理步骤: 1、读取语料库 2、对文件逐个分词 3、每个文件分词完的同时存盘到指定路径 package com.Seg; import java.io.*; import java.util.List; import java.util.Properties; import edu.stanford.nlp.ie.crf.CRFClassifier;原创 2016-03-04 01:20:07 · 2471 阅读 · 0 评论 -
重新实现关于Mikolov的集成文本分类实验(详细过程)-
关于NLP实验的实验演示过程记录。原创 2016-03-01 23:01:53 · 1608 阅读 · 0 评论