![](https://img-blog.csdnimg.cn/b3960122e6ef43d0acc06753c050906e.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI
文章平均质量分 80
Pytorch
yangpipi-
这个作者很懒,什么都没留下…
展开
-
Pytorch实战 第6章神经网络
注意,正如 nn.Linear 名字所表达的意思,Linear 层值提供了线性变换部分,非线性的激活函数需要组合其他的激活函数来实现.不同于 Numpy 实现的数值计算模式,PyTorch 张量在计算的过程中同时也在内部构建了计算图,方便后续的梯度方向传播。只与真实类别𝑖上的概率𝑜𝑖有关,对应概率𝑜𝑖越大,𝐻(𝑝||𝑞)越小。当对应类别上的概率为 1 时,交叉熵𝐻(𝑝||𝑞)取得最小值 0,此时网络输出𝒐与真实标签𝒚完全一致,神经网络取得最优状态。交叉熵可以分解为𝑝的熵𝐻(𝑝)和𝑝与𝑞的 KL 散度。原创 2023-06-03 20:35:07 · 79 阅读 · 0 评论 -
pytorch实战第二章:回归问题
MSE。原创 2023-05-10 21:42:09 · 114 阅读 · 0 评论 -
pytorch实战第一章
在传入数据时,torch.Tensor使用全局默认类型(FloatTensor)而torch.tensor则会从输入数据中进行。来自于:https://blog.csdn.net/qq_45957458/article/details/129656914。区别一:torch.Tensor是torch.empty与torch.tensor的。,会调用自己的构造函数,而torch.tensor则是一个。时,torch.Tensor会将n是为一维张量的。区别三:torch.Tensor是一个。原创 2023-05-09 23:32:06 · 88 阅读 · 0 评论 -
pytorch实战 第4章 Pytorch基础
通过 torch.full(shape, value)可以创建全为自定义数值 value 的张量,形状由 shape 参数指定。# 创建 3*3的全为100的矩阵 a = torch . full([ 3 , 3 ] , 100) print(a) ''''''原创 2023-05-22 21:39:16 · 213 阅读 · 0 评论 -
pytorch实战第3章 分类问题
MNIST数据集。龙曲良老师的pytorch实战原创 2023-05-15 11:28:49 · 177 阅读 · 0 评论 -
Pytorch实战 第5章 Pytorch进阶
除了希望获取张量的最值信息,有时还需要获得最值元素所在的位置索引号,例如分类任务的标签预测,就需要知道概率最大值所在的位置索引号,并把这个位置索引号作为预测的类别。通过 torch.max(x, dim)、torch.min(x, dim)、torch.mean(x, dim)、torch.sum(x, dim)函数可以求解张量在某个 dim 维度上的最大、最小、均值、和,也可以求全局最大、最小、均值、和信息。案例:在求解神经网络的时,通过需要计算目标值与预测值的差的平方和,再计算样本上的 平均误差。原创 2023-05-31 06:03:19 · 434 阅读 · 0 评论