![](https://img-blog.csdnimg.cn/20190927151124774.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习入门
深度学习入门
Kirin Hao
努力在CSDN上记笔记
展开
-
多分类问题
之前提到的问题都是二分类问题,非黑即白,一个是p,另一个就是1-p多分类问题是对多个元素进行分类Softmax是一个多分类器对MNIST手写体数据集进行分类。原创 2023-09-30 20:49:43 · 72 阅读 · 0 评论 -
加载数据集
batch_size的使用batch_size是把数据集分成多少份,以此训练;shuffle是是否在分份之后打乱顺序DataLoader是一个抽象类在老版本中使用多线程时可能出现问题,要用main封装一下。原创 2023-09-29 21:55:21 · 70 阅读 · 0 评论 -
处理多维特征的输入
如一个糖尿病特征的数据集,类似于一个数据库表之前只有一个维度,现在有八个维度(列向量)了,回归模型发生改变输入维度变成8,输出仍是1一种能力是扣书本的能力,更高的能力是读文档,理解基本架构的能力。原创 2023-09-27 09:54:57 · 91 阅读 · 0 评论 -
Logistic回归
对于之前说到的线性模型yx∗wb,y的范围是一个线性的实数域R,成为回归任务。事实上机器学习中很多任务是分类任务:首先说到两个适合练习用的数据集,MNIST数据集,即手写体数据集,包含0-9共10个数字的手写体图片;CIFAR-10数据集,包含10个种类,使用方式类似。分类问题关键是要输出目标的概率就需要使用一个Sigmoid函数将输出值限定到0-1,σx1e−x1相当于就是在原来神经网络单元的最后加了一个Logistic函数。原创 2023-09-26 17:16:00 · 71 阅读 · 0 评论 -
用PyTorch实现线性回归
*kwargs表示讲变量抽象成字典,比如func(x = 1, y = 2)即x(n * 3) * w(3 * 2) = y(n * 2)*args表示多个变量,比如func(1, 2, 3, 4…一个小注意点:线性模型中w一般放在矩阵x右边。1、参数*args和**kwargs。原创 2023-09-24 21:06:06 · 53 阅读 · 0 评论 -
反向传播
模型训练过程是求损失对权重求导的最小值在复杂网络中直接求导会非常麻烦假设有个两层线性模型,但是模型是可以化简的,复杂程度会降低可以将每层的输出结果用个非线性函数处理一下,这个后面讲到了再细说回到反向传播,就是先把参数传到最后然后从后往前求导,其实就是数学里面的多层函数求导完整的计算过程如下图所示,理解不了也没关系,求梯度有方法可以直接用。原创 2023-09-21 22:05:24 · 72 阅读 · 0 评论 -
梯度下降算法
找模型最佳权重的过程,就是让loss尽可能的小求最小损失的问题也叫优化问题深度学习中凸函数的定义:在函数图像中任取两点y值相同的两点x1,x2,x1和x2之间的所有函数值都小于这个y值。就是不断地逼近损失最小值过程中,梯度下降的过程。梯度的计算:$\frac{\partial cost}{\partial w} $梯度下降法的更新过程:$w = w - \alpha \frac{\partial cost}{\partial w} $原创 2023-09-17 21:37:31 · 38 阅读 · 0 评论 -
线性模型
线性模型对应的函数是一个线性函数x和y之间的对应关系是线性关系线性模型的目的是找到x和y的对应关系,如正比例关系就是找到权值w的大小、损失函数loss是计算预测值和真实值之间的偏差,因为做差有正有负,可以平方一下mean是计算每组数据所有loss的平均值MSE,Mean Square Error,是均方误差,计算方法如下,其实就是方差对于上述例子,从最后的结果可以看出,w=2时MSE最低,最吻合结果。原创 2023-09-13 17:46:36 · 60 阅读 · 0 评论 -
深度学习简介
(略写)参考Bilibili上刘二大人的网课刘二大人,男神好吧!原创 2023-09-12 20:48:06 · 35 阅读 · 0 评论