- 博客(55)
- 收藏
- 关注
原创 对Transformer中编解码器结构的深入理解
中,输出的形状是(batch_size, 1, num_hiddens),因为输出的形状是和query的形状相同的。最后在step2的纵向方向上进行传播,得到step2的输出,依次类推,得到整个预测阶段每一个时间步上的词元,将各时间步上的词元进行拼接,便得到了预测出的序列。训练阶段的Transformer是比较简单的,需要注意的是编解码器连接的地方,这里用红线表示,编码器的状态会被依次传递给。然后,该向量与多头注意力机制上一步(step1)中的向量在时间维度上做拼接,拼接后的向量作为注意力机制中的键值对。
2023-04-08 10:27:55
1554
原创 威联通NAS(QNAP)采用HybridMount挂载百度云网盘
威联通NAS(QNAP)采用HybridMount挂载百度云网盘,实现双向同步。
2023-01-26 16:58:16
12606
1
原创 Macos,Windows中anaconda虚拟环境第三方包及python编译器的位置
Macos,Windows中anaconda第三方包及python编译器的位置
2022-08-01 20:29:37
5903
原创 苹果M1芯片,MATLAB(2022a)性能测试
苹果M1芯片,在MATLAB(2022a)上的性能测试,对比INTEL移动端6核处理器。
2022-07-26 13:32:01
12134
2
原创 pytorch实现AlexNet,在mnist数据集上实验,用精确率、召回率等指标评估,并绘制PR、ROC曲线
pytorch实现AlexNet,在mnist数据集上实验。用精确率、召回率等指标评估,并绘制PR、ROC曲线。
2022-06-10 21:22:32
3780
4
原创 对sklearn中transform()和fit_transform()的深入理解
对sklearn中transform()和fit_transform()的深入理解
2022-04-01 20:37:22
11803
8
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅