这周的BP算法难度明显上了一层
训练神经网络大概就是这么个流程
输出层在有多个分类的时候输出的是一个只有一个为1的列向量
随机选择theta的初始值:否则在运行算法的最后theta会变成全是一样的值
接下来算代价函数,δ,偏导数都需要用循环
代价函数的表达式:
δ:
代价函数:前一部分是先对K求和再对m求和
偏导数与δ的关系:
j=0时不加lambda*theta
在用fminunc的时候theta要展开成一列
这周的BP算法难度明显上了一层
训练神经网络大概就是这么个流程
输出层在有多个分类的时候输出的是一个只有一个为1的列向量
随机选择theta的初始值:否则在运行算法的最后theta会变成全是一样的值
接下来算代价函数,δ,偏导数都需要用循环
代价函数的表达式:
δ:
代价函数:前一部分是先对K求和再对m求和
偏导数与δ的关系:
j=0时不加lambda*theta
在用fminunc的时候theta要展开成一列