深度学习
MInNrz
猪事顺利^(oo)^
展开
-
Pytorch深度学习实践(6)多为特征输入
b站链接:https://www.bilibili.com/video/BV1Y7411d7Ys?p=78个feature的输入,用矩阵的运算来表示(因为矩阵运算可以用gpu或者cpu加速)输入的维度是8维,输出的维度是1维也就是说X矩阵的行数代表样本数,列数代表特征数矩阵就是一个N为空间到M维空间的一个线性变换目标是从8维到1维,但是为什么要8->6->2->1,这样一步一步的转换呢每一次线性变换都加上一个激活函数(例如sigmoid函数)进行一个非线性变换,然后再传.原创 2021-04-06 19:56:12 · 483 阅读 · 0 评论 -
Pytorch深度学习实践(5)Logistic Regression
b站链接:https://www.bilibili.com/video/BV1Y7411d7Ys?p=6Logistic Regression(逻辑斯蒂回归) 是一个用于分类的模型,并不是回归模型对于预测值y,在分类问题中此时就是一个集合,例如y∈{0,1,2,3,…},我们所要做的就是,得到y对应每个元素的概率,取概率最大的那个元素就是y的预测值,也就分类完成了。用pytorch深度学习还是以下四个步骤:准备数据集(用dataloader和dataset)设计模型(设计 计算图)构建损失.原创 2021-04-06 11:41:11 · 284 阅读 · 0 评论 -
PyTorch 深度学习实践 (4)构建线性回归模型
b站视频链接https://www.bilibili.com/video/BV1Y7411d7Ys?p=5利用pytorch进行深度学习分为以下4个步骤准备数据集(用dataloader和dataset)设计模型(设计 计算图)构建损失函数和优化器(也就是loss函数和optimizer)开始循环训练(前馈算损失,反馈算梯度,更新权重)广播机制关于Linear类的介绍非常好理解有关python魔法函数的介绍https://blog.csdn.net/u012609509/a.原创 2021-03-18 20:52:50 · 308 阅读 · 0 评论 -
PyTorch 深度学习实践(3)反向传播
b站视频链接:https://www.bilibili.com/video/BV1Y7411d7Ys?p=4这节课老师讲了反向传播的基本原理,感觉很好理解。这次用了pytorch框架,所以要提前先学一点点pytorch的基础内容,例如tensor推荐官网文档学习和视频结合代码:# 要会画计算图import torchimport matplotlib.pyplot as plt# 数据集x_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0].原创 2021-03-15 23:35:18 · 160 阅读 · 0 评论 -
PyTorch 深度学习实践(2)梯度下降
b站视频连接:https://www.bilibili.com/video/BV1Y7411d7Ys?p=3上一节我们用穷举法列举出了所有的可能的k,并且计算了损失函数,损失越小,说明我们的k就越接近,这一次我们用梯度下降,继续计算损失,而不是穷举法了。cost(w)=1/n∑(y`-y)^2明显cost对w是一个二次函数,我们只要找到二次函数的最低点即可不论我们在那边,只要沿着梯度的方向即可找到局部最优解(非二次函数可能有多个最优解),也就是极小值。代码:import matplotlib原创 2021-03-15 23:13:14 · 124 阅读 · 0 评论 -
深度学习实践(1) 线性回归
深度学习实践(1) 线性回归这次主要是初步用穷举法实现深度学习的线性回归。假设给出一组数据符合y=2x,(这里的2我们并不知道,是要求的未知量。)如何求呢?用穷举法。我们知道线性函数是y=w*x(假设b=0)设w=1;把x带入,得到y_pre(y的预测值)而损失函数就是loss=∑(y-y_pre)^2当loss最小时,也就是得到了最符合的w,很明显,loss是一个二次函数代码实现:import numpy as npimport matplotlib.pyplot as plt#原创 2021-02-28 19:01:57 · 215 阅读 · 2 评论