1. 线性回归
针对其中不懂的梯度下降进行了解,获知了梯度是函数值上升最快的方向,该方向反之则下降最快,所以取名叫梯度下降算法
参考: https://blog.csdn.net/weixin_42398658/article/details/83017995
2. softmax和分类模型
softmax与常规的逻辑回归有所不同,它是通过线性回归算得不同类别的值,然后选择值最大的作为分类依据。
3. 多层感知机
学习到了如果全是线性变换的全连接层,则实际上跟单层网络区别不大,中间需要添加非线性变换函数进行处理。