![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
点点菇凉
这个作者很懒,什么都没留下…
展开
-
【笔记】Learning representations by back-propagating errors
【笔记】Learning representations by back-propagating errors反向传播最后一层对E的影响W对E的影响(权重对E的影响)上一层的输出对E的影响(倒数第二层输出对E的影响)梯度下降反向传播最后一层对E的影响W对E的影响(权重对E的影响)上一层的输出对E的影响(倒数第二层输出对E的影响)梯度下降...原创 2020-07-20 18:37:08 · 490 阅读 · 0 评论 -
【翻译】Learning representations by back-propagating errors
Learning representations by back-propagating errors摘要0三级目录摘要我们描述了一种新的学习程序,即反向传播,用于神经元样单元的网络。 该过程反复调整网络中连接的权重,以便最小化对网络的实际输出矢量和所需输出矢量之间的差异的度量。 权重调整的结果是,内部的**“隐藏”单元**(它们不是输入或输出的一部分)开始代表任务域的重要特征,并且任务中的规律性通过这些单元之间的相互作用来捕获。 创建有用的新功能的能力将反向传播与早期更简单的方法(例如感知器收敛过翻译 2020-07-20 15:00:03 · 1335 阅读 · 0 评论 -
深度学习笔记
深度学习自编码器自编码器(AutoEncoder, AE)稀疏自编码器降噪自编码器栈式降噪自动编码器(Stacked Denoising AutoEncoder, SDAE)功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入自编码器原创 2020-07-19 15:38:48 · 125 阅读 · 0 评论 -
引入注意力机制的Seq2seq模型笔记
【伯禹学习深度学习打卡笔记】将注意机制添加到sequence to sequence 模型中,以显式地使用权重聚合states。下图展示encoding 和decoding的模型结构,在每一个encoder的时间步t,,选择这个时间步有关的编码器的信息。图1 具有注意力机制的seq-to-seq模型解码的第二步此刻attention layer保存着encodering看到的所有信息——即...原创 2020-02-26 15:10:45 · 820 阅读 · 0 评论 -
Pytorch操作笔记
torch.Tensor.repeat(*sizes)沿着指定的维度重复tensor。不同于’expand()’,本函数复制的是tensor中的数据参数 -*sizes(torch.Size ot int…) 沿着每一维重复的次数>>> x = torch.Tensor([1, 2, 3])>>> x.repeat(4, 2) #沿着第一维重...原创 2020-02-23 16:03:53 · 93 阅读 · 0 评论 -
梯度下降(Gradient Descent)小结
梯度下降(Gradient Descent)小结欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它...转载 2019-12-25 10:22:48 · 165 阅读 · 0 评论