![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 59
白速龙王的回眸
一命二运三风水
四积功德五读书
六名七相八敬神
九交贵人十养生
展开
-
深度学习:反向传播全流程,手动解析偏导数
为什么要反向传播? 通过正向传播求初基于输入x的y_pred后,需要通过比较y_pred和原数据y,得到损失函数(一般是它们差值的L2范数) 然后,各个权重矩阵就可以根据损失函数反向传播回来的梯度进行学习更新,从而使得下一轮的损失函数更小 总的来说,反向传播起到一个提高训练模型精确度的作用 对于特定的计算图和神经网络 这里我们使用一个包含1层输入层,1层隐含层,1层输出层的神经网络模型 但在数量上,我们稍作变化,我们假定输入层有1000个节点,隐藏层有100个节点,输出层有10个节点,并且隐藏层使用一下原创 2021-10-25 22:02:42 · 811 阅读 · 0 评论 -
深度学习:神经网络的输出层计算
对于输入层和隐藏层都需要补上一个值为1的偏置x0,权重由随机数生成 代码: # todo 实现上图绘制的神经网络, 我们可以采用 np.random.uniform(size=())去随机生成参数 import numpy as np def sigmoid(x): return 1/(1+np.exp(-x)) def net(X): # todo 确定输入和权重的维度 #X = np.array([[1],[-2],[3],[-4]]) # 除了输出层外,每一层多..原创 2021-10-20 23:26:13 · 941 阅读 · 0 评论