深度学习_用LSTM构建单词纠错神器(1)

一、目的

在我们日常开发环境(pycharm / VSCode)中都自带单词纠错的插件。由于近段时间准备重新梳理下NLP的知识,所以准备从这个单词纠错的插件着手,逐步构建出一个单词纠错神器。
里面主要会涉及输入输出数据集的构建,以及单词纠错网络的搭建。以及输入输出数据集构建的优化,网络框架的优化(会输出tensorflow2.6 以及 pytorch1.8 )

二、单词纠错神器网络搭建思路

第一直觉是sequence to sequence的模型, 输入一个拼写错误的单词,输出一个拼写正确的单词。
基于该直觉构建网络图如下:
在这里插入图片描述

网络简单搭建方式:

  • 需要对输入input_1以及input_2进行编码
    • input_2编码的时候需要加入特殊符号表示单词的开始和结束
  • 损失函数确定:交叉熵
  • 梯度优化两个备选: rmsprop 和 adam
  • 网络搭建

三、单词纠错神器网络搭建

3.1 tensorflow 2.0及以上版本


from tensorflow.keras.layers import Dense, LSTM, Input
from tensorflow.keras import Model

def de_right_word_tf2(lstm_units, out_dims, encode_max_len, decode_max_len):
    encoder_lstm = LSTM(lstm_units, return_state=True)
    # 需要将各个隐层的结果作为下一层的输入时,选择设置 return_sequences=True 
    decoder_lstm = LSTM(lstm_units, return_state=True, return_sequences=True)
    fc = Dense(out_dims, activation='softmax')

    input_1 = Input(shape=(None, encode_max_len))
    encode_out, encode_h, encode_c = encoder_lstm(input_1)
    input_2 = Input(shape=(None, decode_max_len))
    decode_out, decode_h, decode_c = decoder_lstm(input_2, initial_state=[encode_h, encode_c])
    predict_out = fc(decode_out)
    model = Model([input_1, input_2], predict_out)
    model.compile(
        optimizer='rmsprop',
        loss=['categorical_crossentropy']
    )
    return model
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Scc_hy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值