![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习框架PyTorch
Liamcoder
我有一个梦想:一间茅屋,一亩良田,一亿存款
展开
-
PyTorch基础入门二:PyTorch搭建一维线性回归模型
PyTorch基础入门二:PyTorch搭建一维线性回归模型1)一维线性回归模型的理论基础给定数据集,线性回归希望能够优化出一个好的函数,使得能够和尽可能接近。如何才能学习到参数和呢?很简单,只需要确定如何衡量与之间的差别,我们一般通过损失函数(Loss Funciton)来衡量:。取平方是因为距离有正有负,我们于是将它们变为全是正的。这就是著名的均方误差。我们要做的事情就是希望能够找...原创 2018-07-28 18:48:18 · 16618 阅读 · 16 评论 -
PyTorch基础入门三:PyTorch搭建多项式回归模型
PyTorch基础入门三:PyTorch搭建多项式回归模型 1)理论简介对于一般的线性回归模型,由于该函数拟合出来的是一条直线,所以精度欠佳,我们可以考虑多项式回归来拟合更多的模型。所谓多项式回归,其本质也是线性回归。也就是说,我们采取的方法是,提高每个属性的次数来增加维度数。比如,请看下面这样的例子:如果我们想要拟合方程:对于输入变量和输出值,我们只需要增加其平方项、三次方项...原创 2018-07-28 23:08:26 · 7496 阅读 · 1 评论 -
PyTorch基础入门四:PyTorch搭建逻辑回归模型进行分类
PyTorch基础入门四:PyTorch搭建逻辑回归模型进行分类1)理论基础Logistic起源于对人口数量增长情况的研究,后来又被应用到了对于微生物生长情况的研究,以及解决经济学相关的问题,现在作为一种回归分析的分支来处理分类问题。所以,虽然名字上听着是“回归”,但实际上处理的问题是“分类”问题。 先来看一下什么是Logistic分布吧。设是连续的随机变量,服从Logistic...原创 2018-07-29 22:09:59 · 19291 阅读 · 22 评论 -
PyTorch基础入门五:PyTorch搭建多层全连接神经网络实现MNIST手写数字识别分类
1)全连接神经网络(FC)全连接神经网络是一种最基本的神经网络结构,英文为Full Connection,所以一般简称FC。FC的准则很简单:神经网络中除输入层之外的每个节点都和上一层的所有节点有连接。例如下面这个网络结构就是典型的全连接:神经网络的第一层为输入层,最后一层为输出层,中间所有的层都为隐藏层。在计算神经网络层数的时候,一般不把输入层算做在内,所以上面这个神经网络为2层...原创 2018-08-04 21:08:44 · 87738 阅读 · 18 评论 -
PyTorch基础入门六:PyTorch搭建卷积神经网络实现MNIST手写数字识别
1)卷积神经网络(CNN)简介关于什么是卷积神经网络(CNN),请自行查阅资料进行学习。如果是初学者,这里推荐一下台湾的李宏毅的深度学习课程。链接就不给了,这些资料网站上随处可见。值得一提的是,CNN虽然在图像处理的领域具有不可阻挡的势头,但是它绝对不仅仅只能用来图像处理领域,大家熟知的alphaGo下围棋也可以通过CNN的结构进行处理,因为下围棋与图像有着相似之处,所以说,CNN提供给我...原创 2018-08-05 20:59:02 · 55346 阅读 · 30 评论 -
PyTorch基础入门一:PyTorch基本数据类型
PyTorch基础入门一:PyTorch基本数据类型1)Tensor(张量)Pytorch里面处理的最基本的操作对象就是Tensor(张量),它表示的其实就是一个多维矩阵,并有矩阵相关的运算操作。在使用上和numpy是对应的,它和numpy唯一的不同就是,pytorch可以在GPU上运行,而numpy不可以。所以,我们也可以使用Tensor来代替numpy的使用。当然,二者也可以相互转换。...原创 2018-07-28 11:14:05 · 16569 阅读 · 13 评论 -
PyTorch基础入门七:PyTorch搭建循环神经网络(RNN)
1)任务介绍今天,我们通过PyTorch搭建一个用于处理序列的RNN。当我们以sin值作为输入,其对应的cos作为输出的时候,你会发现,即使输入值sin相同,其输出结果也可以是不同的,这样的话,以前学过的FC, CNN就难以处理,因为你的输出结果不仅仅依赖于输出,而且还依赖于之前的程序结果。所以说,RNN在这里就派上了用场。2)代码实现上代码之前,还是先了解一下RNN的参数吧:...原创 2018-08-06 18:58:56 · 27014 阅读 · 5 评论