![](https://img-blog.csdnimg.cn/20190927151043371.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
神经网络
神经网络相关知识
Shaneman666
这个作者很懒,什么都没留下…
展开
-
神经网络和深度学习(十二)
Python中Numpy广播机制python可以进行不同维度的矩阵的四则运算,如下图: ①当一个(m,n)的矩阵和(1,n)的矩阵进行四则运算时,会将(1,n)的矩阵复制成一个(m,n)的矩阵,之后进行运算; ②当一个(m,n)的矩阵和(m,1)的矩阵进行四则运算时,会将(m,1)的矩阵复制成一个(m,n)的矩阵,之后进行运算; ③当一个(m,1)的矩阵与一个常数进行四则运算,会把常数扩展为一个(m,1)的矩阵,之后进行运算。...原创 2020-05-21 13:03:06 · 350 阅读 · 0 评论 -
神经网络和深度学习(七)
梯度下降法(Gradient Descent)逻辑回归算法如下式子:成本函数J(w,b)用于训练w(特征权重,维度与特征向量相同),b(实数,表示偏差)成本函数J(w,b)是损失函数平均值的和,展开式如下:梯度下降法的形象化说明在实际中w可能是更高维度,但是此时定义也和b一样,表示一个实数,也就是一维。我们所要做的就是使w,b尽可能小,也就是图中尽可能在曲面的底端。抽象为一维坐标之后重复如下式子,迭代更新出最小w: := 表示...原创 2020-05-20 19:10:54 · 471 阅读 · 0 评论