01中文分词,so easy的“第一天”。

中文分词工具及其相关网站

中文分词很多,尤其是结巴(jieba)是比较流行的,所以以jieba为例。
本人没做过自创的项目,但是跑过几十个github上的项目,所以还是懂点“规矩的”

readme书写方式也是刚刚学习了一下:参考:https://blog.csdn.net/qq_35711549/article/details/88396328
readme.txt

一、国际化

没有国际化,不想用英文表达。
项目地址:https://github.com/Zach-PineappleMan/Zach_NPL/01基于jieba中文分词的应用

二、介绍

子项目名称:01基于jieba中文分词的应用
项目目的:学习自然语言处理

三、效果图

四、特点

很容易实现

五、基本结构

谈不上结构

六、集成方式

谈不上集成

七、使用方法

  1. 安装jieba:使用pip安装pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jieba
  2. 运行程序:使用pycharm,但是我更喜欢jupyter lab,但是不冲突;

八、关于作者

Name: Zach XXXXX
E-mail:354399824@qq.com
I’d like to communicate with each other by email.

九、contributors

myself

十、Thanks

Thanks for your reading.

哈哈哈哈,第一次写,写的不好欢迎指正哦。

代码展示1

代码展示1

代码展示2

由于本专栏的目的是生成文本,所以把句子光看成一个词一个词或者一个短语一个短语是不够的,接下来是我们可能需要用到的:jieba的cut_for_search的使用。
代码展示2
今天的案例很简单,我继续搜索一些资料为明天做准备,哈哈哈哈。今天很轻松呢。

参考资料:

  1. 自然语言处理理论与实战 (唐聃 等著) 第九章 中文分词
  2. https://blog.csdn.net/qq_35711549/article/details/88396328
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值