deep learn
Yuerya.
此人不懒!〈掐腰〉
展开
-
卷积神经网络(高级篇)
跳连接residual block保证输入输出大小一样。原创 2023-08-03 11:14:27 · 165 阅读 · 0 评论 -
cnn卷积神经网络(基础)
特征提取(卷积、下采样)->分类器 (全连接)原创 2023-07-29 18:55:42 · 264 阅读 · 0 评论 -
多分类问题-Softmax Classifier分类器
crossentropyloss()函数 CrossEntropyLoss <==> LogSoftmax + NLLLoss。也就是说使用CrossEntropyLoss最后一层(线性层)是不需要做其他变化的;使用NLLLoss之前,需要对最后一层(线性层)先进行SoftMax处理,再进行log操作。概率分布:属于每一个类别的概率总和为0,且都>=0,n组类别需要n-1个参数就能算出结果。寻找最大值torch.max,dim=1按行寻找;momentum冲量值设成0.5。均值和标准差(固定的)原创 2023-07-29 14:46:08 · 266 阅读 · 0 评论 -
逻辑斯特回归
分类是离散的,回归是连续的。原创 2023-07-23 17:48:16 · 642 阅读 · 0 评论 -
加载数据集--准备数据集mini-batch
4.init有两种选择:a.把所有数据都加载到内存里面,用getitem把每一个[i]传出去(用于数据集本身不大);b.放入pack文件里面,定义一个列表把每一个数据集文件放到相应列表or标签中用getitem读取i列表j文件元素(数据集本身很大)BGD和SGD二者的折中法,对于m个样本,选取x个子样本进行迭代,且1原创 2023-07-25 18:52:54 · 271 阅读 · 0 评论 -
处理多维特征的输入
数据的每一列称为:特征/字段x的数据变为8列,维数=8 x_data;y_data:创建两个Tensor激活函数: 代码更改部分:原创 2023-07-25 17:46:04 · 546 阅读 · 0 评论 -
pytorch实现线性回归
【代码】pytorch实现线性回归。原创 2023-07-14 15:50:37 · 2929 阅读 · 0 评论 -
深度学习之反向传播
(在pytorch包中)Tensor数据成员:data(存放数据w,也是Tensor变量,但是取data不会构建计算图)和grad(存放梯度loss对w的导,调用bacward之后grad也是个Tensor,每次引用结束要zero)backward会释放计算图,每一次运行神经网络时计算图可能是不同的,所以没进行一次反向传播就释放计算图。原创 2023-07-14 10:20:48 · 478 阅读 · 0 评论 -
梯度下降算法
因为已知三组数据,range100次,且随机梯度下降算法每个样本更新一次,所以,一共w会更新300次,但是原梯度下降算法cost仅将三组算得梯度求均值再进行range100,所以一共进行100次。可以理解为:如果斜率为正,往下走就是减;斜率为负,往上走就是加。用贪心算法求阶局部最优解,即w对应的MSE达到最小。更新:随机梯度下降算法。对每一个样本进行更新。原创 2023-07-10 16:54:12 · 222 阅读 · 0 评论