![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deep learning with python
文章平均质量分 60
计算机女孩绝不认输
这个作者很懒,什么都没留下…
展开
-
Deep learning with python——SGD
给定一个可微函数,它在理论上是有可能找到它的最小分析。一个函数的最小点的导数为0,所以你要做的就是找到所有的点的导数趋于0,并检查哪些点函数值最低。应用到神经网络中,这意味着要分析地找到产生最小可能损失函数的权重值的组合。可以通过求解方程gradient(f)(W) = 0来实现。这是一个有N个变量的多项式方程,其中N是网络中系数的数目。虽然在N = 2或N = 3的情况下解出这样的方程是可能的,但对于真正的神经网络来说,这样做是很难的,因为参数的数量从不少于几千个,通常可能是几千万个。如果从梯度的原创 2021-04-22 16:22:56 · 250 阅读 · 0 评论 -
Tensor dot (张量点)
点运算,也称为张量积(不要与元素积混淆)是最常见、最有用的张量运算。与元素操作相反,它组合了输入张量中的项。使用Numpy、Keras、Theano和TensorFlow中的*操作符完成元素的乘积。在TensorFlow中,点使用了不同的语法,但在Numpy和Keras中,它都使用了标准的点操作符:import numpy as npz = np.dot(x, y)在数学符号中,你可以用点(.)来标记操作:z = x . y从数学上讲,点运算有什么作用?让我们从两个向量x和y的点积开始,它的计算方原创 2021-03-14 15:59:40 · 1181 阅读 · 0 评论 -
Epoch、Batch、tensor 张量
Epoch使用训练集的全部数据对模型进行一次完整训练的过程,即“一次epoch”。Batch使数据用训练集中*一小部分样本(一批数据)*对模型权重进行一次反向传播的参数更新,一个Epoch的样本可以分成多个Batch来进行训练。Batch_Size:批大小Iteration使用一个Batch对模型进行一次参数更新的过程,即“一次迭代”。tensor张量,将矩阵推广到任意维数的一种方法。例如矩阵就是2D张量。sclars(0D张量)只包含一个数的张量称为标量(或标量张量..原创 2021-03-14 14:18:57 · 665 阅读 · 0 评论