- 博客(4)
- 收藏
- 关注
原创 多层神经网络
不同模型需要不同版本的conda和torch,注意下载的版本。最终,我们通过层层参数θ,获得预测值。下一步进行函数优化。loss逐层先后传递进行求导,即梯度回传,也称反向传播。图中每个圆都代表一个线性函数,举例第一个绿圆为y=w。一个黄圈圈y就是一个神经元,也就是一条线性函数。本节介绍更复杂的函数。
2024-02-03 15:37:53 235 1
原创 深度学习线性函数的搭建和优化概念
本节深度学习函数只能是线性,下节学习更加复杂的函数。常见神经网络的输入,一般有三种数据形式。常见神经网络的输出,一般也分为三种。分类时,使用数字来表示类别。深度学习就是找一个函数f。分类和回归是生成的基础。
2024-02-03 13:17:47 231 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人