利用jieba分词进行中文文本特征抽取

安装jieba分词库

pip install jiaba

 导入库

import jieba

代码

a=jieba.cut(data)
print(type(a))
print(a)

 

 返回的是一个迭代器,所以需要加list()

data = '北京天安门我爱你'
data1=data.encode('utf-8')
print(type(data1))
a='...'.join(list(jieba.cut(data)))
print(type(a))
print(a)

 调用jieba分词,先实例化一个转换器,再调用fit_transform

 完整代码

def cut_word(a):
    # data = '北京天安门我爱你'
    # data1=data.encode('utf-8')
    # print(type(data1))
    # a='...'.join(list(jieba.cut(data)))
    # print(type(a))
    # print(a)

    return '.'.join(list(jieba.cut(a)))

def cut_words():
    word=["出现问题原因:与表示的是两种数据类型,而上面出现问题的原因是对str字符串使用了解码,显然是猪头不对马尾。"]
    new_word=[]
    for i in word:
        new_word.append(cut_word(i))
    print(new_word)
    # 1.实例化一个转换器
    transfor=CountVectorizer(stop_words=["str"])#停用词必须放在一个列表里面
    # 2.调用fit_transform
    new_word=transfor.fit_transform(new_word)
    print("new_data\n",new_word.toarray())#统计每个特征词出现的总数
    print("特征名字\n",transfor.get_feature_names())
if __name__=="__main__":
    cut_words()

 结果

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值