对TXT文档中文分词积累分词库

#! usr/bin/env python
#coding=utf-8

import jieba

class WordCut:
    def __init__(self,sentence):
        # 初始化
        sentence = []
        
    def ConcatSentences(self,sentence):
        return','.join(sentence.values)
    
    #创建停用词表
    def stopwordslist(self,):
        stopwords = [line.strip() for line in open('D:/jupyter/dic_stop.txt',encoding='UTF-8').readlines()]
        return stopwords
    
    # 对句子进行中文分词
    def seg_depart(self,sentence):
        # 对文档中的每一行进行中文分词
        print("(%s):正在分词" % "**")
        sentence_depart = jieba.cut(sentence.strip())
        # 创建一个停用词列表
        stopwords = stopwordslist()
        # 输出结果为outstr
        outstr = ''
        # 去停用词
        for word in sentence_depart:
            if word not in stopwords:
                if word != '\t':
                    outstr += word
                    outstr += " "
        return outstr
    
    def wordtank(self, sentence):
        #将word_list列以‘ ’分开,分成多列
        word_list_df = word_list.str.split(' ',expand = True)

#将列转换为行
word_list_df_0 = word_list_df.stack()

# 将所有的分词合并
words = []
for content in words:
    words.extend(content)
    
# 创建分词数据框
import pandas as pd
corpus = pd.DataFrame(word_list_df_0, columns=['word'])
corpus['cnt'] = 1

# 分组统计
g = corpus.groupby(['word']).agg({'cnt': 'count'}).sort_values('cnt', ascending=False)
g = g.reset_index()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值