- 博客(4)
- 收藏
- 关注
原创 两层神经网络的实现(cs231n作业)
两层神经网络是一种浅层神经网络,由输入层、隐藏层和输出层组成。输入层接受输入数据,隐藏层通过对输入进行加权和激活函数处理来产生新的特征表示,输出层对隐藏层的输出进行加权和激活函数处理来得到最终的输出结果。在两层神经网络中,隐藏层是起到关键作用的。它通过学习数据中的特征来对输入数据进行非线性转换。隐藏层中的每个神经元都有一组权重,这些权重用于将输入数据映射到隐藏层中。隐藏层中的每个神经元都使用激活函数来处理加权输入,并将其传递到下一层。常见的激活函数包括sigmoid函数、ReLU函数和tanh函数等。
2023-03-19 21:00:28
1278
原创 Softmax classifier的深度剖析(cs231n课程作业)
Softmax classifier是一种用于多分类问题的分类器,它是Logistic Regression的一种推广。它的原理是将一个K维的实数向量转换为一个K维的概率分布,每个元素都在0和1之间,并且和为1。它通常用作神经网络的最后一个激活函数,以输出每个类别的概率。绿色框是softmax的处理,把s矩阵每个元素用-e次幂处理,再用每个框内的元素依次除三个数的平均值得到处理之后的矩阵softmax和svm是两种不同的分类器,它们都可以用于多分类问题,但是有一些区别和联系。
2023-03-12 12:39:52
414
原创 SVM算法的深度剖析(CS231N课程作业)
SVM(支持向量机)算法属于机器学习的监督学习类算法,需要用已知数据训练模型并且用模型来预测未知数据,而SVM主要是对数据进行非线性或者线性分类,你可以从本篇文章中了解全向量化损失函数的实现,解析梯度的全矢量化表达式,如何用数值梯度检查实施,如何用验证集调整学习率和正则化强度,以及用SGD来刷新参数来降低损失函数,最后可视化学习权重。二次规划是一种特殊的数学优化问题,它的目标函数是一个二次函数,而约束条件是一些线性方程或者不等式。
2023-03-12 10:10:22
1114
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人