![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 93
itspollyyy
这个作者很懒,什么都没留下…
展开
-
CS231n-Lecture Note-06-Training Neural Networks
。原创 2023-11-16 17:11:55 · 36 阅读 · 1 评论 -
CS231n-Lecture Note-05-CNN Architectures
𝛾and𝛽.𝛾and𝛽.𝛾and𝛽1. 2.3.原创 2023-11-15 17:44:32 · 32 阅读 · 0 评论 -
CS231n-Lecture Note-04-Image Classification with CNN
In the previous section, we mostly talked about Neural Networks. CNN is similar to that. Both are made up of neurons with learnable weights and biases. Each neuron receives some inputs and outputs with non-linearity. Still has loss function.The difference原创 2023-11-15 10:17:30 · 34 阅读 · 0 评论 -
CS231n-Lecture Note02-Optimization
In the last lecture, we learned about image classifiers, nerest neighbor and K-NN. And use cross-validation to tune hyperparameters. With the lack of nerest neighbor and K-NN, we have implemented Linear Classifier which will reduce the expense of calculati原创 2023-11-13 17:28:05 · 191 阅读 · 0 评论 -
CS231n-Course Note01-Image Classification with Linear Classifiers
CS231n-Course Note01-Image Classification with Linear ClassifiersAs a core task in Computer Vision, Image Classification has two basic data-driven approaches which is K-nearest neighbor and linear classifier.原创 2023-11-10 21:56:22 · 90 阅读 · 1 评论 -
深度学习06-激活函数(activiation function)
在神经网络中,若神经元接收D个输入,此时将输入看为向量,并用净输入(Net Input)来表示一个神经元所获得的输入信号x的加权和[1]。;w是权重(weight),b是偏置(bias)该式子是一个线性的公式可看作。为了将其转换为非线性,则在z的输入后添加激活函数。典型的神经元结构如图所示:非线性函数根据弧度或者输出范围来分类sigmoid函数的值域为,适用于预测概率的场景。并适用于多分类场景。例如:如果一个人随机选择一星期7天中的一天,选择星期日的发生比[4](odds)是原创 2023-11-09 17:11:17 · 75 阅读 · 1 评论 -
深度学习04-优化器
在反向传播中,计算梯度时,指引损失函数(目标函数())的各个参数()往正确的方向更新合适的大小,使得更新后的各个参数让损失函数(目标函数)值不断逼近全局最小。[1]简单说就是通过优化器通过权重和学习率来使loss最小。在寻找梯度的下山问题中, 该往哪个方向下山(优化方向),在优化器中反映为梯度或动量。而每步的长短,则为学习率(原创 2023-11-06 20:35:56 · 40 阅读 · 0 评论 -
深度学习02-反向传播(backward propagation)
链式法则(chain rule)(按照相反的顺序,从输出层遍历网络,依次计算每个中间变量和参数的梯度)其中W是权重,b是偏置(bias), a是激活函数(tanh, ReLU, sigmoid等), x是输入数据,y是标签(输出值)。将y与s通过代价函数(cost fucntion)比较。卷积核(fliter)的数量=神经元的数量,每个神经元对卷积的输入执行不同的卷积。⚠️:其中W,b都是矩阵(matrices),右上角的角标表示层数。特征图的结果是应用了卷积核(mapping,stride)后的结果。原创 2023-11-03 15:46:37 · 562 阅读 · 0 评论 -
深度学习01-向前传播(forward propagation)
1. 输入特征x与权重W相乘得到scores,2. 用scores和真实的值计算损失loss。3. 用计算出的hinge loss+ regularization后得出Loss。4. 再将得分值送入softmax分类器,将分值转化为概率问题。4.14.2。原创 2023-10-27 14:35:36 · 136 阅读 · 1 评论