![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 84
贪心的柠檬
正在努力学习的小菜鸟……
展开
-
深度学习_卷积神经
深度学习_卷积神经网络参考书籍:深度学习入门_基于python的 理论与实现一. 整体结构全连接:相邻层的所有神经元之间都有连接基于全连接层(Affine层)的网络的例子基于CNN的网络的例子:新增了Convolution层和Pooling层(用灰色的方块表示)二. 卷积层全连接存在的问题:向全连接层输入时,需要将3维数据拉平为1维数据;而卷积层可以保持形状不变。当输入数据是图像时,卷积层会以3维数据的形式接收输入数据,并同样以3维数据的形式输出至下一层。特征图:卷积层的输入原创 2021-11-08 17:27:29 · 482 阅读 · 0 评论 -
深度学习_与学习相关的技巧
深度学习_与学习相关的技巧参考书籍:深度学习入门_基于python的 理论与实现一. 参数的更新随机梯度下降法(SGD)(1)公式: η表示学习率η表示学习率,式子中的←表示用右边的值更新左边的值(2)代码实现:参数lr表示learning rate(学习率);参数params和grads分别保存了权重参数和它们的梯度(3)缺点:如果函数的形状非均向(anisotropic),比如呈延伸状,搜索的路径就会非常低效。Momentum(动量)(1)公式:η表示学习率。这里新出现了一个原创 2021-11-08 09:32:39 · 719 阅读 · 0 评论 -
深度学习_误差反向传播法
深度学习_误差反向传播法参考书籍:深度学习入门_基于python的 理论与实现正向传播:从计算图出发点到结束点的传播反向传播:从计算图结束点到出发点的传播局部计算:无论全局发生了什么,都能只根据与自己相关的信息输出接下来的结果计算图优点:可以通过正向传播和反向传播高效地计算各个变量的导数值加法节点的反向传播:加法节点的反向传播将上游的值原封不动地输出到下游加法节点反向传播的具体例子加法层的实现:forward()对应正向传播,backward()对应反向传播原创 2021-11-05 18:17:33 · 741 阅读 · 0 评论 -
深度学习_神经网络的学习
深度学习_神经网络的学习参考书籍:深度学习入门_基于python的 理论与实现神经网络学习:从训练数据中自动获取最优权重参数的过程学习的目的:以该损失函数为基准,找出能使它的值达到最小的权重参数深 度 学 习 :端 到 端 机 器 学 习(end-to-end machine learning)。这里所说的端到端是指从一端到另一端的意思,也就是从原始数据(输入)中获得目标结果(输出)的意思训练数据:使用训练数据进行学习,寻找最优的参数测试数据(监督数据):使用测试 数据评价训练得到的模型的原创 2021-11-04 15:56:25 · 111 阅读 · 0 评论 -
深度学习_神经网络
深度学习_神经网络参考书籍:深度学习入门_基于python的 理论与实现1. 激活函数1.1 原理:将输入信号的总和转换为输出信号1.2 图示:1.2 图解:信号的加权总和为节点a,然后节点a被激活函数h()转换成节点y;a表示输入信号的总和,h()表示激活函数,y表示输出;a=b+W1X1+W2X22. sigmoid函数2.1 公式:exp(−x)表示e的 (−x)次方2.2 sigmoid函数的实现import numpy as npimport matplotlib.py原创 2021-10-30 15:39:37 · 257 阅读 · 0 评论 -
深度学习_感知机
深度学习_感知机参考书籍:深度学习入门_基于python的 理论与实现1. 感知机1.1 原理:接收多个输入信号,输出一个信号1.2 图示:1.3 图解:上图表示一个接收两个输入信号的感知机,x1、x2是输入信号,y是输出信号,w1、w2是权重,图中的O称为“神经元”或者“节点”。输入信号被送往神经元时,会被分别乘以固定的权重(w1x1、w2x2)。神经元会计算传送过来的信号的总和,只有当这个总和超过了某个界限值时,才会输出1。这也称为“神经元被激活”。将这个界限值称为阈值,用符号θ表示。原创 2021-10-29 21:24:31 · 192 阅读 · 0 评论