![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI
qq_54282734
这个作者很懒,什么都没留下…
展开
-
神经网络初级
全连接:每一个输入值和第一层的权重都有相乘,对每一个像素来说是平均的卷积神经网络:像素与内核相乘,可用于提取特征,复用权重卷积层;保留图像的空间结构栅格图像好捕获其中的信息,矢量图像不行不同的通道应用不同的卷积核,输入图片通道和卷积核的通道数量是一致的,一个卷积核得到一个通道input后的.View是设置输入照片的batch,C,W, HKernel后的.view是设置卷积核O,I,W,H经过MaxPooling(池化层) 通道数不会变,2*2的...原创 2022-04-25 16:55:51 · 889 阅读 · 0 评论 -
softmax
神经网络的输出层要用softmax层,softmax保证了两点1.输出的值大于0 2.所有输出值和为1无论有多少个分类,只有一项为1,别的都为0为啥损失前面是负号,因为y^计算分类概率和损失,这一步骤统称为交叉熵损失(神经网络的最后一层不要做激活),用交叉熵 y值要用长整型 transformsmean 方差 std 标准差数据归一化-1 自动算改值是多少...原创 2022-04-25 15:02:34 · 2687 阅读 · 0 评论 -
加载数据集
min-batchEpoch:对所有数据样本的一次前馈,反馈训练Batch-Size:对一个batch中的所有数据进行的前馈-反馈训练Lteration:有多少个batchShuffle:对数据集打乱顺序; Dataset是一个抽象类,需要被继承,getitem函数可以按索引获取数据,len函数是求长度;init函数中1.读取所有的数据,再用getitem函数获取 2.对应数据集过大,输出值y也有很多标签; num workers 多线程读取batch中的数据训练要封装...原创 2022-04-25 10:13:10 · 189 阅读 · 0 评论 -
处理多维特征的输入
多层神经网络sigmoid函数(激活函数)可以使其非线性delimiter 分隔符,[-1] 表示拿出来是一个矩阵可以改变激活函数,用ReLU()来计算ReLU的取值为0~1,但并不是连续的,所以最后一层需要用Sigmoid函数来计算;...原创 2022-04-24 22:39:57 · 1070 阅读 · 0 评论 -
逻辑斯蒂回归
对于分类问题判断的是在每个类别上的概率,概率总合为1线性回归和分类问题:Sigmoid functions逻辑斯蒂函数;其他Sigmoid functions:BCE Loss用以下值表示两个分布之间差异性的大小,值越小越好二分类的交叉熵损失Loss...原创 2022-04-24 21:40:57 · 37 阅读 · 0 评论 -
用Pytorch实现线性回归
步骤:numpy:广播机制输入和输出值必须要是矩阵模型都需要继承父类nn.module , Super中是继承了父类的构造_init_()父类中Linear函数为构造对象,完成运算单元的计算(x*w+b)in_features 代表输入x是几维的, out_features 代表输出y是几维的,权重一般放在右侧bias是指要不要偏置量,默认值是turepython语法:args 1,2,4,3; kwargs:x,y;...原创 2022-04-24 20:58:46 · 58 阅读 · 0 评论 -
刘二大人——反向传播
非线性函数,防止全连接层转化为一个线性公式 反向传播计算权重加偏置量计算权重Pytorch 中用tensor来保存数据,可以是标量,向量,更高维的数据Data保存权重W, Grad用来保存损失对权重的倒数计算梯度x*w时 x自动转化为tensor数据类型,计算loss,调用loss函数时就计算出了loss,这两个函数是构建计算图backward()调用时计算图自动消失,对每个数的链式求导会保存在该数中,可用.grad.data调用,用...原创 2022-04-24 11:57:54 · 120 阅读 · 0 评论