自然语言预处理(一)分词(char & word)

infile=open('test.txt')

outfile =open('formatedtest.txt','w')

for line in infile:

    line =line.rstrip('\n')

    unicodeline=unicode(line,'gb2312')

    length=len(unicodeline)

    i=0

    while i<length:

        #print unicodeline[i]

        d=unicodeline[i].encode('utf-8')     

        outfile.write(d)

        outfile.write(' ')

        i+=1

这里是 对汉字后面加一个空格,当训练的样本是按照 char 来分词的时候,可以这样做。

下面是 按照 jieba 分词写的:

就是对按照汉语的词分开,比如 中国的高山很巍峨。 就会分为《中国 的 高山 很 巍峨 。》

import jieba

f=open("hello.txt","rb")

f1=open("hello1.txt","w",encoding='utf-8')

global line_old

for line in f:# 读取每一行

line_uni = line.decode('utf-8')

line_uni.strip()

# print(line_uni)

# print(line_uni[-3])

# split():拆分字符串。通过指定分隔符对字符串进行切片,并返回分割后的字符串列表(list)

line_new = seg_list = jieba.cut(line_uni)

line_new =" ".join(line_new)

f1.writelines(line_new)

f.close()

f1.close()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值