文章目录
课时72代价函数06:43)
❀逻辑斯蒂回归的代价函数
m是样本个数
x^(i)是第i个样本的值
h(x^(i))是第i个样本的输出值(分到第1类的概率)
❀神经网络的代价函数
h(x)是个K维向量,表示分K类的结果
h(x)k表示输出向量的第k个值
h(x^(i))k表示第i个样本的输出结果的第k个值
i从1到m表示m个样本
k从1到K表示分K类
❀神经网络的正则化项
l表示神经网络层数
Sl表示 第l层神经网络的节点个数
i 从1到 Sl 表示第 l层节点数
j 从1到 Sl+1 表示第l+1层节点数
θji 表示 对 本层(l层) xi输出值 应乘的系数 来作为下一个层第j个节点输出值的一部分
课时73反向传播算法11:59
我们需要找出θ,极小化代价函数
那么就需要把代价函数J对θji^(l)求偏导
假设我们只有1个训练样本
前向传播:就是输出第一层的激活值,然后计算第二层的值……直到最后一层
反向传播
原理:求导链式法则