深度学习
文章平均质量分 84
nlp为主
Michael_Lzy
这个作者很懒,什么都没留下…
展开
-
Transformer
Transformer原创 2022-09-21 11:05:08 · 946 阅读 · 0 评论 -
自注意力机制(Self-Attention)
自注意力机制原创 2022-08-27 22:27:29 · 93489 阅读 · 15 评论 -
双向RNN
birnn原创 2022-08-12 16:04:06 · 2807 阅读 · 0 评论 -
seq2seq(序列到序列)模型
序列到序列原创 2022-08-11 22:40:54 · 3367 阅读 · 0 评论 -
注意力机制(Attention Mechanism)
注意力机制原创 2022-08-11 17:07:24 · 14449 阅读 · 1 评论 -
GRU(门控循环单元),易懂。
一、什么是GRU?GRU(Gate Recurrent Unit)是循环神经网络(RNN)的一种,可以解决RNN中不能长期记忆和反向传播中的梯度等问题,与LSTM的作用类似,不过比LSTM简单,容易进行训练。二、GRU详解GRU模型中有两个门,重置门和更新门,具体作用后面展开说。先来看一张GRU的图,看不懂没关系,后面慢慢展开说。符号说明::当前时刻输入信息:上一时刻的隐藏状态,这个隐藏状态包含了之前节点的相关信息。:传递到下一时刻的隐藏状态:候选隐藏状态:重置门原创 2022-02-03 22:03:34 · 67169 阅读 · 14 评论 -
spacy包安装问题
正常来说,执行下面两条命令就可以安装了,但是在第一步就报错了。 pip install spacy python -m spacy download en_core_web_sm应该是从外网下载太慢了,所以选择清华镜像源,很快就安装好了,会安装最新版本的spacy,pip install spacy -i https://pypi.tuna.tsinghua.edu.cn/simple pip show spacy 或者pip list检查是否安装成功,安装成功,这时一定要记住版本..原创 2022-01-16 19:47:17 · 5845 阅读 · 2 评论 -
【keras入门】MNIST数据集分类
# (60000, 28, 28)->(60000, 784)x_train = x_train.reshape(x_train.shape[0],-1)/255.0# x_train.shape是(60000, 28, 28), x_train.shape[0]就是60000# -1表示不自己设置具体维度,自动寻找合适值给设置,这里自动设成28*28,也就是784# 除255是为了归一化,把一张图片上print(x_train[0])print(len(x_train[0]))# x.原创 2022-04-21 23:00:33 · 3936 阅读 · 2 评论 -
LSTM(长短时记忆网络)
什么是LSTM?LSTM是RNN的一种,可以解决RNN短时记忆的不足,当一条序列足够长,那RNN将很难将信息从较早的时间步传送到后面的时间步,而LSTM能学习长期依赖的信息,记住较早时间步的信息,因此可以做到联系上下文。比如:1.RNN可以根据前面几个单词有效预测出空白出单词为sky。2....原创 2022-02-04 14:39:35 · 24394 阅读 · 6 评论