深度学习 神经网络
文章目录基础知识激活函数:引入非线性增加模型复杂度,不改变数据维度,a=激活函数(b) a、b维度一样取值[0,1],如leru取值[0,正无穷)可归一化成[0,1],符合概率特点为什么要引入?sigmoid函数:取值 [0,1]relu:倒数函数不连续 取值[0,正无穷],导数取值0或1softmax为什么引入?如何用?:多层神经网络的隐藏层选定优先级损失函数凸函数?等高线损失函数是凸函数时损失函数3D图3D图等高线图,压缩到θ1Oθ2平面\theta_1O\theta_2平面θ1Oθ2平面:可知,中
原创
2021-07-31 18:07:31 ·
538 阅读 ·
1 评论