python中结巴分词思路解析-含代码实战

本文介绍在Python中使用jieba分词库,通过`jieba.lcut()`进行分词操作,并详细讲解如何使用`jieba.load_userdic()`加载自定义词典,以组合特定词语。在Jupyter Notebook环境中运行代码,需注意编码格式和可能的运行问题。
摘要由CSDN通过智能技术生成

本文代码均在jupyter Notebook上运行,已安装jieba包


结巴常用的函数

结巴常用函数 作用
jieba.lcut(text) 对text文件内容进行分词,返回的是分词后的词语列表
jieba.load_userdic(txt_file) 为防止某些目标词汇分割,需要载入紫东义词典,告诉程序说,这几个字是一个词语,不要分割

jieba.lcut(text)代码实战

由于使用jupyter Notebook运行代码,部分代码直接复制可能存在不全,无法直接全部运行的问题,因此建议读者采用jupyter Notebook运行代码,如使用其他编译器,请不要忘记适当修改(例如import或者变量定义)

import jieba
text = '我来到北京清华大学'
wordlist=jieba.lcut(text) # wordlist默认是列表形式
print(wordlist)

在这里插入图片描述


#保留词语字长度大于1的词
# 保留词语长度大于1的词
for w in wordlist:
    if len(w)>1:
        print(w) # w仅是列表中的元素,因此输出的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值