深度学习
文章平均质量分 94
阳光男孩小宁
华北电力大学硕士研究生
展开
-
Transformer
文章目录Transformer1.从宏观的视角开始2.引入张量3.编码层详解(1).从宏观视角看自注意力机制(2).从微观视角看自注意力机制(3).多头注意力机制(5).使用位置编码表示序列的顺序???(6).残差模块4.解码组件(1).最终的线性变换和Softmax层Transformer1.从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。拆开这个黑箱,它是由编码组件、解码组件和它们之间的连接组成。**所有的编码器在结构上都是相同的,但它们没原创 2022-03-28 21:55:46 · 620 阅读 · 0 评论 -
生成式对抗网络(GAN)
文章目录生成式对抗网络(GAN)GAN的原理训练过程目标函数代码生成式对抗网络(GAN)GAN的初衷就是生成不存在于真实世界的数据应用场景如下:AI作家,AI画家等需要创造力的AI体;将模糊图变清晰(去雨,去雾,去抖动,去马赛克等),这需要AI具有所谓的“想象力”,能脑补情节;进行数据增强,根据已有数据生成更多新数据供以feed,可以减缓模型过拟合现象。GAN的原理GAN有两个网络分别为:G(Generator),生成器: 负责凭空捏造数据出来 接收一个随机的噪声z,通过这个噪声生原创 2022-03-28 21:36:35 · 2283 阅读 · 0 评论