深度学习(2):中文分词(jieba)(Tensorflow)

目录

中文分词的难点

中文分词方法

简单使用

三种分词模式

结巴分词使用

结巴分词使用


目前中文分词一共有三种方式进行实现:
jieba (结巴分词)
THULAC(清华大学自然语言处理与社会人文计算实验室)
pkuseg (北京大学语言计算与机器学习研究组)

中文分词的难点

  1. 分词不规范,词的定义还不明确,容易误分
  2. 歧义切分问题,交集型切分问题,多义组合型切分歧义等,容易找出分出的词语有歧义

中文分词方法

  1. 基于字典、词库匹配的分词方法(基于规则)
  2. 基于词频度统计的分词方法(基于统计)
  3. 基于知识理解的分词方法

简单使用

import jieba

text = "聚焦鲜活农产品主产区、特色农产品优势区,支持建设农产品产地小型仓储保鲜冷链设施,
到2025年,全市新增田间地头冷藏保鲜项目60个以上。市财政对完成项目建设任务的区级政府,
按照每个项目属地财政补助额度的50%,给予不超过50万元的奖励"
word_list = jieba.cut(text)
print(word_list)

 

# 转换为list
print(list(word_list))

 直接使用需要将其转换为list才能看到结果

三种分词模式

① 精确模式:试图将句子最精确地切开,适合文本分析

# 精确模式
word_list = jieba.cut(text,cut_all=False)
print("精准模式分词结果为:" + "/ ".join(word_list)) 

 ② 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义

把词语分的很细,分的不能在分的样子

# 全模式
word_list = jieba.cut(text,cut_all=True)
print("全模式分词结果为:"+"/ ".join(word_list)) 

 ③ 搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词 

 • 支持繁体分词

• 支持自定义词典

# 搜索引擎模式
word_list = jieba.cut_for_search(text)
print("搜索引擎模式分词结果为:"+ "/ ".join(word_list))

结巴分词使用

• jieba.cut 方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型

• jieba.cut_for_search 方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词

• jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的generator,可以使用 for 循环来获得分词后得到的每一个词语,或者jieba.lcut 以及 jieba.lcut_for_search 直接返回 list

 使用此方法会直接得到列表,列表里面为已经分好了的词。不需要再次进行转换

word_list = jieba.lcut(text)
print(word_list)

word_list = jieba.lcut_for_search(text)
print(word_list)

结巴分词使用

• 开发者可以指定自己自定义的词典,以便包含 jieba 词库里没有的词

• 用法: jieba.load_userdict(file_name)

• file_name 为文件类对象或自定义词典的路径

• 词典格式:一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。

• file_name 若为路径或二进制方式打开的文件,则文件必须为 UTF-8编码

jieba.load_userdict("data.txt")
word_list = jieba.lcut(text)
print(word_list)

 自己定义的词典,可以在分词时不会分开自己定义的词语,如:我不想让”农产品“这三个字分开,就写入词典中并进行加载,拿在之后分词时就不会把这三个字分开了。而没有加载这个词典,jieba就可能会将其分开

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
jieba本身不提供深度学习模型,但是可以结合其他深度学习框架如TensorFlow或PyTorch来完成中文分词任务。 以下是一种基于TensorFlow深度学习分词代码: 1. 准备数据集: 首先需要准备一个中文分词的数据集,可以使用现成的数据集,如MSR语料库、人民日报语料库等,也可以自己制作。 2. 构建模型: 使用TensorFlow搭建深度学习分词模型,可以使用双向LSTM+CRF等经典模型。 ```python import tensorflow as tf class BiLSTM_CRF(tf.keras.Model): def __init__(self, vocab_size, num_labels, embedding_dim, hidden_dim): super(BiLSTM_CRF, self).__init__() self.embeddings = tf.keras.layers.Embedding(vocab_size, embedding_dim) self.bi_lstm = tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(hidden_dim, return_sequences=True)) self.dense = tf.keras.layers.Dense(num_labels) self.transition_params = tf.Variable(tf.random.uniform(shape=(num_labels, num_labels))) def call(self, inputs, training=False): embeddings = self.embeddings(inputs) mask = tf.cast(inputs != 0, dtype=tf.float32) lstm_out = self.bi_lstm(embeddings, mask=mask) logits = self.dense(lstm_out) return logits def loss(self, inputs, labels): logits = self(inputs) mask = tf.cast(inputs != 0, dtype=tf.float32) log_likelihood, self.transition_params = tf.contrib.crf.crf_log_likelihood(logits, labels, mask) loss = tf.reduce_mean(-log_likelihood) return loss def predict(self, inputs): logits = self(inputs) mask = tf.cast(inputs != 0, dtype=tf.float32) path, _ = tf.contrib.crf.viterbi_decode(logits, self.transition_params) return path ``` 3. 训练模型: 使用训练数据对模型进行训练,并保存训练好的模型。 ```python # 准备训练数据和测试数据 train_x, train_y = load_data('train.txt') test_x, test_y = load_data('test.txt') tokenizer = Tokenizer(lower=False, oov_token=None) tokenizer.fit_on_texts(train_x) train_x = tokenizer.texts_to_sequences(train_x) test_x = tokenizer.texts_to_sequences(test_x) train_x = pad_sequences(train_x, maxlen=MAX_SEQ_LENGTH, padding='post', truncating='post') test_x = pad_sequences(test_x, maxlen=MAX_SEQ_LENGTH, padding='post', truncating='post') train_y = pad_sequences(train_y, maxlen=MAX_SEQ_LENGTH, padding='post', truncating='post') test_y = pad_sequences(test_y, maxlen=MAX_SEQ_LENGTH, padding='post', truncating='post') vocab_size = len(tokenizer.word_index) + 1 num_labels = len(tag2idx) train_dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y)).shuffle(10000).batch(BATCH_SIZE) test_dataset = tf.data.Dataset.from_tensor_slices((test_x, test_y)).batch(BATCH_SIZE) # 构建模型 model = BiLSTM_CRF(vocab_size, num_labels, EMBEDDING_DIM, HIDDEN_DIM) # 训练模型 optimizer = tf.keras.optimizers.Adam(lr=LEARNING_RATE) for epoch in range(NUM_EPOCHS): total_loss = 0 for batch, (inputs, labels) in enumerate(train_dataset): with tf.GradientTape() as tape: loss = model.loss(inputs, labels) gradients = tape.gradient(loss, model.trainable_variables) optimizer.apply_gradients(zip(gradients, model.trainable_variables)) total_loss += loss print('Epoch: {}, Loss: {}'.format(epoch+1, total_loss)) # 保存模型 model.save('model.h5') ``` 4. 使用模型进行分词: 使用已经训练好的模型对新的文本进行分词。 ```python # 加载模型 model = tf.keras.models.load_model('model.h5', compile=False) # 对新文本进行分词 text = '今天天气真好' tokens = jieba.lcut(text) token_ids = [tokenizer.word_index.get(token, 1) for token in tokens] # 1是OOV的编号 inputs = pad_sequences([token_ids], maxlen=MAX_SEQ_LENGTH, padding='post', truncating='post') tags = model.predict(inputs)[0][:len(tokens)] result = [(token, tag2label[tag]) for token, tag in zip(tokens, tags)] print(result) ``` 需要注意的是,深度学习模型需要大量的数据和计算资源进行训练,但是得到的分词效果通常比传统方法更好。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牧锦程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值