深度学习
就是噢
这个作者很懒,什么都没留下…
展开
-
图注意力网络部分内容详解
该博客中分享了部分注意力模型的计算过程,可供参考,以便进行对模型的可视化研究。原创 2023-03-16 15:00:46 · 137 阅读 · 0 评论 -
注意力机制(Attention Mechanism)
https://blog.csdn.net/weixin_42398658/article/details/90804173https://my.oschina.net/u/876354/blog/3061863https://www.pianshen.com/article/4647359272/原创 2021-06-26 16:44:22 · 128 阅读 · 0 评论 -
完备的 AI 学习路线
https://mp.weixin.qq.com/s?__biz=MzU0MDQ1NjAzNg==&mid=2247486965&idx=1&sn=4b27a045daf54b3f4f0f648cd0cea836&chksm=fb39a8fecc4e21e89445ccaff3e3a10e74fe856235973902fcdee2cb1bd3cb48317f83b8185c&token=876382619&lang=zh_CN&scene=21#we原创 2021-06-21 11:33:46 · 82 阅读 · 0 评论 -
归一化(MinMaxScaler)、标准化(StandardScaler)、批标准化(BatchNormalization)
一、批量标准化(BN,Batch Normalization)1、BN 简介a、协变量偏移问题我们知道,在统计机器学习中算法中,一个常见的问题是 协变量偏移(Covariate Shift),协变量可以看作是 输入变量。一般的深度神经网络都要求输入变量在训练数据和测试数据上的分布是相似的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。传统的深度神经网络在训练时,随着参数的不算更新,中间每一层输入的数据分布往往会和参数更新之前有较大的差异,导致网络要去不断的适应新的数据分布,进而使得原创 2021-06-20 10:45:03 · 1708 阅读 · 0 评论