- 博客(3)
- 收藏
- 关注
原创 多层感知机学习笔记
在训练模型中首先需要初始化模型的参数,有些我们直接随机生成之后再进行调整,但有些如果随机生成会导致训练模型的过程很长,可能需要迭代很多次,所以可以通过选择适当的初始化方法,如Xavier初始化,让初始的模型已经比较接近目标模型,方便了训练模型的过程。sigmoid函数可将输入变换为0到1上的输出,也称为挤压函数,这个函数的曲线相较于ReLU函数更加顺滑,对于一些数据变化为曲线趋势的问题更适合。对于更加复杂的模型,为了克服线性模型的限制,在模型中加入隐藏层,进行非线性的运算模型能更灵活,拟合更加复杂的问题。
2023-03-23 23:08:26
91
原创 线性神经网络学习笔记
而分类模型的逻辑就是计算出每一种情况的可能性,最终输出可能性最大的结果,如对一个数字模型计算出是2的概率是0.2,3的概率是0.1,1的概率是0.7,最终模型识别的结果就是1.但在深度学习的模型中,k的含义是权重w,b的含义是偏置,并扩展为高维的,以矩阵的形式进行运算,所以这也提醒我们训练模型的时候,矩阵的相乘一定要是对应维度的。几乎所有模型都通过梯度下降的方法进行优化,而随机梯度下降是其中最简单的方法——计算损失函数(数据集中所有样本的损失均值)关于模型参数的导数。其实就相当于数学中的y=kx+b。
2023-03-23 22:18:12
48
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人