![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 85
丘小羽
代码小白,梦想娶小羽和挣大钱。现在小羽是我女朋友,钱在慢慢的挣,我也在变得越来越优秀。面包会有的,牛奶会有的,一切都会有的。
展开
-
深度学习之循环神经网络进阶
解决完这个问题之后呢,我们还注意到一个问题,这些序列长短不一,而我们的处理层要求维度一致,这个时候需要我们对我们的序列进行统一处理,将其进行扩维(padding),都转化为该序列组中的最高维度,空缺 的部分添加0补上。但是独热向量维度太高,而且过于稀疏,所以一般来说我们都要先经过嵌入层将其转化为一个低维稠密的向量,然后经过循环神经网络,RNN一层,隐层的输出不一定与我们要求的目标一致,然后我们再经过线性层将其转化到与我们目标一致。我们要解决的问题是名字分类,我们根据名字找到其对应的国家。原创 2024-02-04 16:47:26 · 1046 阅读 · 0 评论 -
深度学习之循环神经网络 (基础)
我们将x1,x2,x3看成是一个序列,我们不仅要考虑x1,x2,x3之间的链接关系,我们还要考虑他们三者之间的前序和后序的时间顺序。显然,我们一般的天气变化都是比较缓和的,很少有断崖式的变化。我们的输入是对应天数的特征,输入完之后送入我们的RNN里面,做线性变换,得到输出,我们将输出hn叫做hidden,就是隐层,在这里面我们要注意,它和之前线性层的区别是什么呢?我们将来在稠密层,如果使用全连接层进行处理,那么要进行的运算是天文数字,很难达到预期的效果,我们进行序列化数据的处理,一般使用RNN。原创 2024-01-30 15:42:00 · 996 阅读 · 0 评论 -
深度学习之卷积神经网络进阶版
在构造神经网络的时候,有一些超参数是比较难选的,比如说卷积核的大小(面积,长乘宽),GoogleNet的特点是:我们不确定哪一个卷积核比较好用,所以我们在一块儿里面把所有可能好用的卷积核都放进去,所有卷积都用一下,然后将他们的结果挪到一起,将来,那个好用,其对应的权重就比较大,而其他的就比较小,显然,我们提供了几种候选的卷积核的配置,将来在处理的过程中,自然保留最优的。我们要考虑比较多的卷积是1*1的卷积,它表示我们的卷积核就是1*1的,它表示拿我们的权重乘我们的每一个像素(遍历)。得到卷积之后的结果。原创 2024-01-29 02:42:33 · 1292 阅读 · 0 评论 -
深度学习之卷积神经网络
那我们在构建神经网络的时候,首先要明确,我们的输入,它的张量的维度,输出的张量的维度,我们要想使我们的网络正常的工作,我们就需要利用我们网络的各种层,进行维度上或者每个维度上尺寸大小的变化,最终使其映射到我们想要的各种输出里面,所以不论是卷积也好,全链接也好,我们都是在做空间变换,所以我们在神经网络里面,前面的卷积也好,下采样也好,其实我们都可以称其为Feature Extraction(特征提取)。最终的目标是要做分类,所以不管我们中间层怎么处理,我们的输出都要是一个十维的向量,即10*1的矩阵。原创 2024-01-29 00:42:59 · 1083 阅读 · 1 评论 -
深度学习之处理多维特征的输入
当然,我们也可以现将其升维,再将其降维,我们利用越多的深度,就对于我们的预测结果保留了更多的信息。当然不是,隐藏层越多,学习能力越强,那么我们利用噪声的能力越强,但是我们希望的是尽量减少噪声对我们结果的影响我们想要的是某一部分的数据信息,这时候,隐藏层多了的话,反而成为了负担,所以我们要综合各种因素,选择适合的隐藏层数量。我们的模型一定要具有泛化能力。在数据集中,我们称每一行叫做sample,表示一个样本,称每一列是feature,也就是特征在数据库里面这就是一个关系表,每一行叫做记录,每一列叫做字段。原创 2024-01-27 14:14:59 · 590 阅读 · 0 评论 -
深度学习分类问题之Logistic Regression
如果我们考虑由前面数据的规律得到的x=4时y的值,我们得到的是一个点数,这是线性回归问题,如果说x=1,2是得到的y=0表示不能通过考试,而当x=3时得到的y=1表示可以通过考试,你们当我们的x=4时得到的y应该表示的是能否通过考试,在这里我们使用分类问题,将我们得到的结果映射为对应的分类。为什么在2.5的时候通过率达到了0.5,因为我们在x=2的时候通过率为0,在x=3的时候通过率是1,那么由线性规则可知,在x=2.5的时候,应该是通过与不通过的分界线。最常见的就是MNIST数据集里面的手写数字问题。原创 2024-01-27 03:57:16 · 873 阅读 · 0 评论 -
深度学习之反向传播
在这个图中,最左边五个输入表示的是输入的x1到x5,连线表示经过和权重的混合运算,,第二层是隐藏层,输入的样本数量是5,输出的样本数量是6,那么输出相当于是输入6*5的权重矩阵*5*1的样本矩阵得到的结果。在图中,我们的x并不是表示我们的初始输入,我们表示的是某一层的输入,该层可能是隐藏层,那么这时x是原始样本输入经好多权重的运算得到的结果,只有求出loss对x的梯度,才能前馈得到loss对前面权重的梯度。在计算图中,对于不同的计算模块(绿色部分),它求局部的偏导的方法是不同的。原创 2024-01-27 01:02:32 · 1607 阅读 · 0 评论 -
深度学习基础之数据操作
深度学习中最常用的数据是张量,对张量进行操作是进行深度学习的基础。以下是对张量进行的一些操作:首先我们需要先导入相关的张量库torch。原创 2024-01-21 14:37:38 · 587 阅读 · 0 评论 -
Pytorch之梯度下降算法
梯度下降算法是深度学习中最常用的算法之一。下面我们一起来学习梯度下降算法。原创 2023-12-03 18:08:15 · 1177 阅读 · 2 评论 -
Pytorch Overview
神经网络最初来源于神经科学,而深度学习来自于数学和工程学。目前的神经网络主要用于数学和工程学。神经元对于人工神经网络的发展有极其重要的参考价值。能让神经网络工作起来的重要方法是反向传播,其实就是求导数。不是使用解析式求导数,而是使用反馈。先正向求取结果,然后反向梯度求导数。原创 2023-12-02 12:20:37 · 1073 阅读 · 1 评论