![](https://img-blog.csdnimg.cn/20190927151101105.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch python基础
文章平均质量分 70
一些基本语法
m0_67708072
这个作者很懒,什么都没留下…
展开
-
求导(前向求导和反向求导)
多次前向求导才能求得z对x1,x2,x3的导数;一次反向求导即可求得z对x1,x2,x3的导数。前向求导:一个输入对所有结点的影响。反向求导:所有结点对一个输出的影响。原创 2024-05-11 07:24:34 · 1313 阅读 · 0 评论 -
dropout训练阶段和测试阶段
原理:训练阶段dropout启动。在前向传播过程,dropout模块对于输入的每个数,都会以概率p将该数置0,如果该数被置0则输出0,如果该数未被置0则把该数乘上1−p1作为输出。原创 2024-05-11 01:06:03 · 725 阅读 · 0 评论 -
wandb
针对wandb的基本使用:wandb.log()记录一些损失等值,wandb.watch(modle)检测模型原创 2023-12-18 00:53:41 · 109 阅读 · 0 评论 -
import logging
logging利用basicConfig的基础使用,以及利用logger,handler,Formatter和filter来控制输出日志信息到控制台与文件。原创 2023-11-28 01:01:42 · 58 阅读 · 0 评论 -
关于用None拓展维度
pytorch当中,如果是两个维度不同的1维张量,没办法做广播运算。但是如果把一维张量增加一个维度,变成二维张量,就可以做广播运算了。如何增加维度呢?这时就需要利用None。原创 2023-11-14 12:24:45 · 64 阅读 · 1 评论