![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 67
Rilkean heart
Fail Again. Fail Better
展开
-
windows系统使用cmd执行.py文件并且传入参数 | 神经网络模型训练 | 主打能用就行
windows系统使用cmd执行.py文件并且传入参数, 神经网络模型训练原创 2023-10-14 12:51:14 · 510 阅读 · 0 评论 -
pytorch | 使用vmap对自定义函数进行并行化/ 向量化的执行
在pytorch中,使用vmap对自定义函数进行并行化/ 向量化的执行原创 2023-04-11 10:39:03 · 1676 阅读 · 1 评论 -
pytorch | 记录一次register_hook不起作用以及为什么
gradgrad。原创 2023-04-09 10:39:21 · 680 阅读 · 0 评论 -
pytorch | loss不收敛或者训练中梯度grad为None的问题
关于使用pytorch时loss不收敛或者grad为None的问题,以及笔者常用的demo原创 2023-04-04 23:00:00 · 6867 阅读 · 20 评论 -
BatchNorm1d的复现以及对参数num_features的理解
以pytorch为例,进行了BatchNorm1d的复现以及对参数num_features的理解原创 2023-03-09 18:55:23 · 1554 阅读 · 0 评论 -
optuna用于pytorch的轻量级模型调参和grid search的自定义设计
optuna用于pytorch的轻量级调参场景和grid search的自定义设计,ray tune对我这个问题场景不友好原创 2023-03-04 19:47:21 · 1217 阅读 · 1 评论 -
在使用ray tune时出现cuDNN error: CUDNN_STATUS_INTERNAL_ERROR
在使用ray tune时出现cuDNN error: CUDNN_STATUS_INTERNAL_ERROR。原创 2023-03-01 21:55:35 · 206 阅读 · 0 评论 -
python中一种编写config文件并及时更新的方法
python中一种编写config文件并及时更新的方法。原创 2023-02-26 11:05:30 · 2394 阅读 · 0 评论 -
pytorch与numpy的broadcast的理解
此文章转载自:https://www.cnblogs.com/pied/p/8288856.html写的very nice!本搬运工做了点注释broadcast 是 numpy 中 array 的一个重要操作。pytorch沿用了这个特点。首先,broadcast 只适用于加减。然后,broadcast 执行的时候,如果两个 array 的 shape 不一样,会先给**“短”的那一个,增加高维度“扩展”(broadcasting),比如,一个 2 维的 array,可以是一个 3 维 siz.转载 2021-08-18 22:39:02 · 279 阅读 · 0 评论 -
小白对pytorch的autograd的backward一些理解
此文章是基于pytorch官方教程的中文版https://pytorch123.com/SecondSection/autograd_automatic_differentiation/写的因为自己在理解的时候并不能很好的理解这个autograd里面的backward自动求梯度是怎么回事,雅各比点积又是怎么回事,所以写了这个小白版的写的不全,官方写的一些注释我有的没有加上,而且官方有2个地方写的不太容易让我这种小白理解,修改了一下。本文借鉴有3:第一篇博客写的很好https://blog.cs.原创 2021-08-16 23:02:46 · 171 阅读 · 0 评论