![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
知识点
泡泡龙的泡泡
这个作者很懒,什么都没留下…
展开
-
Mathtype公式位置偏上
Mathtype公式位置偏上原创 2023-02-23 10:36:39 · 2602 阅读 · 0 评论 -
软注意力机制和硬注意力机制
软注意力机制就是虽然词语权重不同,但是在训练模型的时候雨露均沾,每个词语都用到,焦点词语的权重大。软性注意力(Soft Attention)机制是指在选择信息的时候,不是从N个信息中只选择1个,而是计算N个输入信息的加权平均,再输入到神经网络中计算。硬注意力机制是从存储的多个信息中只挑出一条信息来,可能是概率最大的那个词向量...原创 2021-12-20 10:27:25 · 4387 阅读 · 0 评论 -
python random.seed()
random.seed()方法改变随机数生成器的种子,可以在调用其他随机模块函数之前调用此函数。import randomrandom.seed ( [x] )调用 random.random() 生成随机数时,每一次生成的数都是随机的。但是,当我们预先使用 random.seed(x) 设定好种子之后,其中的 x 可以是任意数字,如10,这个时候,先调用它的情况下,使用 random() 生成的随机数将会是同一个。参数:x – 改变随机数生成器的种子 seed。如果你不了解其原理,你不必特别去设原创 2021-11-29 15:41:15 · 703 阅读 · 0 评论 -
GRU(Gate Recurrent Unit)
GRU(Gate Recurrent Unit)是循环神经网络(Recurrent Neural Network, RNN)的一种。和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。GRU和LSTM在很多情况下实际表现上相差无几,那么为什么我们要使用新人GRU(2014年提出)而不是相对经受了更多考验的LSTM(1997提出)呢。我们在我们的实验中选择GRU是因为它的实验效果与LSTM相似,但是更易于计算。相比LSTM,使用GRU能转载 2021-11-19 10:07:28 · 322 阅读 · 0 评论 -
2021-11-04 MLP 多层感知机
MLP 多层感知机Muti-Layer Perception ,MLP神经网络要解决的基本问题是分类问题。最典型的MLP包括包括三层:输入层、隐层和输出层,MLP神经网络不同层之间是全连接的(全连接的意思就是:上一层的任何一个神经元与下一层的所有神经元都有连接)。神经网络主要有三个基本要素:权重、偏置和激活函数https://www.chinait.com/industries/30661.html...原创 2021-11-04 10:02:06 · 338 阅读 · 0 评论