![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CS231n
壹零叁玖
多多重复 百炼成钢
展开
-
斯坦福大学CS231n——assignmentv1——neural_network
开篇 终于到了作业1的最后一个部分,也终于到了深度学习最核心的一部分,神经网络的搭建和训练。虽然这次作业只是一个双层的神经网络,但是体现了神经网络的一般架构和框架,更复杂的神经网络无非就是加一些batch normalization,dropout,identity map等等等等。所以这次作业还是要认真独立看懂代码并完成的。 神经网络的搭建 上次我们刚刚训练了我们的第一个模型——线性分类器,其实神经网络的训练和线性分类器异曲同工,都是在不断地训练中计算损失函数,然后梯度下降,对参数进行更新,从而预测出更加原创 2020-05-15 19:21:03 · 231 阅读 · 0 评论 -
斯坦福大学CS231n——assignmentv1——linear_classifier
开篇 我们这一系列前几篇文章其实都是让大家更加熟悉损失函数的编写,根本不涉及到什么数据处理,无非就是在损失函数中有0有1,我们需要作出区分并且计算出损失函数和梯度值,从而更新W权重。 这一切其实是在干嘛呢?其实都是训练的步骤,我们训练模型的时候,就是在不断地迭代,不断地计算损失函数,不断地更新W权重。最后预测模型,计算精度。那这次我们要聊的就是把我们之前学过的损失函数,应用到一个具体的模型训练中——线性分类模型。 线性分类模型linear_classifier 线性分类模型真的是最简单最基础的分类模型,其准原创 2020-05-14 15:58:03 · 509 阅读 · 0 评论 -
斯坦福大学CS231n——assignmentv1——softmax
开篇 softmax函数是一种可以进行多分类的函数,它通常在神经网络全连接层的后面,承担最终的分类任务。如果大家熟悉sigmoid函数,这个可以用来做二分类的函数的话,那么对于softmax函数一定也不陌生,它几乎和sigmoid函数长得一模一样。 损失函数是我们常见的交叉熵损失函数: ...原创 2020-05-13 17:30:08 · 153 阅读 · 0 评论 -
斯坦福大学CS231n——assignmentv1——linear_svm
开篇 今天我们聊一下linear_svm线性支持向量机。首先我们需要知道线性svm的损失函数,这也是作业中要求实现的主要部分。 线性支持向量机 svm的损失函数基本上都是hinge损失:loss = max(0,y_pred - y + 1) 这个1表示的是我们损失函数中的margin,意思为我们最多可以接受这么多的距离误差。二者的差值超过了1就会被我们当作错误样本来计算损失了。 作业里面也要求我们使用两种方法,一种是naive版本,遍历每一个样本,计算在每个类别上的得分,然后与真实类别的得分做差并+1,得原创 2020-05-12 23:20:46 · 214 阅读 · 0 评论 -
斯坦福大学CS231n——assignmentv1之KNN
开篇 前段时间在b站上看斯坦福大学cs231n计算机视觉的公开课,其实这门课并不是一门进阶课程,他只是一门基础的CV课程,如果大家想入门计算机视觉的可以去b站上搜一下这门课,简介中前序课程建议学习cs229和cs131,但本人亲测没学过这两门也关系不大,因为cs231n讲的还是很基础的(我学过cs229,就是吴恩达老师的机器学习,但是没上过cs131,但感觉影响和知识预备关联不是很大,cs231n实在很基础)。虽然课程很基础,但是它的三个大作业确实是备受好评,我之所以会每天再花费一个多小时去学一遍这门较为基原创 2020-05-11 20:06:09 · 248 阅读 · 0 评论