在AI-100第六周多层感知机和深度神经网络学习中,有一个算例(两层网络,1个两维的输入数据,每层神经元数量都是2个,激活函数为sigmoid函数,损失函数为二次损失),可以通过手工计算各层前馈运算值,通过损失函数计算各权重参数的梯度(损失函数的反向传播算法),更新完各层权重参数后,再次前馈-反向-前馈-反向……-前馈,直到模型输出值与标签值基本相等。
在AI-100第六周多层感知机和深度神经网络学习中,有一个算例(两层网络,1个两维的输入数据,每层神经元数量都是2个,激活函数为sigmoid函数,损失函数为二次损失),可以通过手工计算各层前馈运算值,通过损失函数计算各权重参数的梯度(损失函数的反向传播算法),更新完各层权重参数后,再次前馈-反向-前馈-反向……-前馈,直到模型输出值与标签值基本相等。