深度学习
文章平均质量分 60
薛猫颚的腚
这个作者很懒,什么都没留下…
展开
-
深度学习之softmax回归
分类问题概述回归可以用于预测,比如我们提到过的预测房屋价格等。有时候,我们可能也会对分类问题感兴趣,不是关心多少,而是关心“哪一个”:某个电子邮件是否是垃圾邮件某用户可能注册或不注册订阅服务某个图像绘制的是狗,猫还是牛,马这里的分类问题并不包括分析图像,得到图像中未知物品的名称,而是在预定范围下,判断图像中物品是不是已知物品中的某一个。独热编码统计学家很早以前就发明了一种表示分类数据的简单方法:独热编码(one-hot encoding)。 独热编码是一个向量,它的分量和类别一样多。 类原创 2021-12-08 09:35:31 · 477 阅读 · 0 评论 -
深度学习之线性回归代码实现(代码详解)
线性回归从零开始问题解读这里要先详细解读一下我们前文提到的问题,如何实现我们的梯度下降的迭代?我们自然是使用最最常用的BP神经网络了。它是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络模型之一 。看起来很复杂是吧,那我们简而言之就是:前向传播,计算预测值,反向传播更新权重,不断迭代知道达到要求。这里具体过程我就不推导了,其实很简单,大家甚至可以手算一下,可以看这个UP主的视频。 反向传播算法原创 2021-12-07 21:06:28 · 1216 阅读 · 0 评论 -
深度学习之线性回归基本原理
线性回归的详细分析原创 2021-12-07 17:31:22 · 1456 阅读 · 0 评论 -
深度学习入门之自动求导
背景介绍神经网络NNS式作用在输入数据上的一系列嵌套函数的集合,这些函数由权重和误差来定义,被存储在pytorch的tensor中。神经网络训练的两个步骤:前向传播:前向传播中,神经网络通过接受到的数据与每一层对应权重和误差进行运算来对正确的输出做最好的预测反向传播:在反向传播中,神经网络调整其参数使得其与输出误差成比例,反向传播基于梯度下降测量是链式求导法则的一个应用,以目标的负梯度方向对参数进行调整。总之,正向传播求损失,反向传播回传误差,不断调整权重,一直迭代就可以完成一个简单的原创 2021-12-07 15:49:27 · 1455 阅读 · 0 评论 -
深度学习入门—数据的基本操作
TensorsTensors张量是一种特殊的数据结构,它类似于数组和矩阵,在Pytorch中,我们使用tensors来给模型的输入输出以及参数进行编码,Tensors除了张量可以在gpu或者其他专用硬件上来使用加速计算之外,其他用法类似于Numpy中的ndarrays。import torchimport numpy as np初始化Tensor有很多方法:1.从数据创建data = [[1, 2],[3, 4]]x_data=torch.tensor(data)2.从Nmupy创建n原创 2021-12-07 14:50:35 · 950 阅读 · 0 评论 -
深度学习入门—绪论
深度学习手把手入门级教程原创 2021-12-07 13:36:45 · 346 阅读 · 0 评论