PyTorch深度学习实践
文章平均质量分 88
一起学习Pytorch,一起加油!
等rain亭
我一边踉跄前进,一边重整旗鼓
展开
-
Pytorch反向传播算法(Back Propagation)
首先第一层计算的是w1*x+b1,假如说我们的输入x是一个n维的列向量,结果是一个m维的列向量,MM是矩阵相乘,那我们需要的w1是一个m*n的矩阵,相乘得到的结果是一个m维的列向量,需要b1也是一个m维的列向量,ADD表示相加,得到的结果可以看成这个层的输出,但其实这个值还需要放入到下一层进行第二层的运算,而两个的运算过程都差不多,大家可以自己看一下。大家看,在一个线性的运算中,其中不管有多少层,w1,w2都是可以通过计算放在一起的,那最后得到的结果也可以看出来,又是一个新的线性运算。原创 2024-05-31 11:01:08 · 787 阅读 · 0 评论 -
Pytorch梯度下降算法(Gradient Descent)
其实对于我们将要学的梯度最小函数,目的就是先得到loss损失最小的值,然后根据这个最小的值去得到w。初始点在initial guess这个位置,我们希望找到最小的权重点global cost minimum,我们到底是让这个点左移寻找还是右移寻找呢?此时我们就需要使用到梯度定义。在加上一个x后,如果这个导数值变为负的,说明我接下来函数图像呈现下降的趋势,那根据我们上述所说的寻找一个阶梯最小函数,就是要使函数往小的方向进行。所以我们希望函数图像下降的话,我们就取导数为负的方向。原创 2024-05-24 11:52:06 · 590 阅读 · 0 评论 -
Pytorch线性模型(Linear Model)
①首先准备好数据集(DataSet)②模型的选择或者设计(Model)③进行训练(Train)大部分模型都需要训练,有些不需要。这一步后我们会确定不同特征的权重④推理(inferring)1,2,3hours会有一个结果2,4,6points。这个就是训练过程,把x和y都给模型,让他自己学。5hours这个没有一个对应的y,这个就是我们的预测过程(相当于上面的题目学完了后,现在写这个题,看能不能写对)。原创 2024-05-22 17:53:04 · 870 阅读 · 1 评论 -
Pytorch(Overview)
刚刚上面说的计算图算法,我们不需要自己去实现的。我们通常使用现成的deep learning framework 去进行实现(当然也可以自己去写framework,但是这个比我们写深度神经网络要难)我们将会用到的deep learning frameworks是pytorch(facebook),当然还有其他的如TensorFlow(Google),还有一个就是已近和pytorch合并的Caffe(facebook),还有如MxNet。欢迎大家一起学习Pytorch相关知识!!!原创 2024-05-22 15:47:33 · 880 阅读 · 0 评论