实体关系抽取数据处理之句子分词
使用Python的'jieba'库进行中文分词,将数据处理为'[[sentence, [entity1,...], [sentence_seg]], ...]'的格式.然后收集所有分词后的句子,作为语料库使用Python的'word2vec'库训练词向量.
为防止实体被错误分词,将所有实体(实体字典的键集合)写入文件'dict.txt'作为用户字典.定义文件'stop_word.txt',在分词过程中对句子去除中文停用词.
pool类
在使用Python进行系统管理时,特别是同时操作多个文件目录或者远程控制多台主机,并行操作可以节约大量的时间。如果操作的对象数目不大时,还可以直接使用Process类动态的生成多个进程,十几个还好,但是如果上百个甚至更多,那手动去限制进程数量就显得特别的繁琐,此时进程池就派上用场了。
Pool类可以提供指定数量的进程供用户调用,当有新的请求提交到Pool中时,如果池还没有满,就会创建一