自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 【环境配置】多cuda版本多pytorch版本配置

tar cudnn-10.1-linux-x64-v8.0.4.30.tgz #解压。2.安装cudnn版本。注意,这里使用安装到CUDA文件夹的方式。2.注意注释掉 etc/profile中关于CUDA路径的命令。1.使用时,切换不同的CUDA path和对应的环境即可。2.安装cudnn版本。注意,这里按照官方即可。3.安装pytorch 1.12.1。1.下载cudnn的压缩包。3.安装pytorch 2.3。1.安装CUDA11.3。3.拷贝到cuda文件夹。1.安装CUDA12.1。

2024-06-03 15:15:21 650

原创 【编程BUG】Pytorch中的+=操作

运行会报错:RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.cuda.HalfTensor [64, 256]], which is output 0 of ReluBackward0, is at version 18;用于行为识别的TRN代码中有一段代码。

2023-06-30 04:00:10 142

原创 【编程BUG】Pytorch 使用DataParallel时报告数据和模型不在同一个设备上的错误

解决Pytorch 使用DataParallel时报告数据和模型不在同一个设备上的错误

2023-06-24 18:44:38 393 1

原创 Linux (ubuntu)服务器上anoconda用户环境和系统环境串在一起

ubuntu上anoconda用户环境和系统环境的管理问题。

2023-04-20 05:39:26 223

原创 Zoreto+坚果云+pdf expert(papership) 实现文献管理和批注同步

2022-06-25 22:06:32 732

原创 【BUG】linux新建一个screen,tqdm正常。screen -r 命令复原窗口后tqdm进度条出现中文乱码

解决办法:在管理员账户输入 vim ~/.screenrc,添加下面两句:defencoding GBKencoding UTF-8 GBKPS:常用的查看编码的命令:locale 查看编码LANG=UTF-8 更改终端编码locale -a 打印已安装编码库

2022-04-15 14:07:22 1479

原创 wandb.log()的异常

wandb使用注意

2022-04-02 00:42:31 1627

原创 简洁版Ubuntu安装FFMPEG(支持GPU加速)

简洁版Ubuntu安装FFMPEG(支持GPU加速)默认CUDA工具已经安装,如果没有安装,网上教程一般都有效。检查CUDA 已经安装, 命令行输入:nvcc -V结果:接下来开始安装理论上可以cd到任意目录下进行下面的操作,相应的文件也会下载到对应目录。看读者喜好和个人文件管理习惯。1.安装ffnvvodec (GPU加速用)参考是这里.//Clone ffnvcodecgit clone https://git.videolan.org/git/ffmpeg/nv-codec-h

2021-10-24 23:06:34 6997 2

原创 2021-03-01

pytorch中对Tensor进行分块的操作: split()tensor.split(selection_or_int,dim),返回的是一个列表,第一个参数是Int, 则按照参数的值在dim上均分(最后一组保留)。如果是List, 则List中包含了每块的大小。reshape_bottleneck = torch.randn((8, 8, 16, 26, 26))t_fea_forward, _ = reshape_bottleneck.split([8 - 1, 1], dim=1) # n,

2021-03-02 13:06:57 98 1

原创 pytorch中view()和flatten

直接说结论,view()和flatten都是和输入共享内存的,flatten的好处是不用输入形状参数,直接指定维度,在这之后的都被拉平。view则是更加灵活示验证代码:import torcht = torch.tensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])# ---flatten用法----print('flatten1')print(to

2021-02-02 11:25:08 4593

原创 Vision Transformer综述阅读(1)

Vision Transformer综述阅读主要内容提要正文主要内容提要根据极客平台 vision transformer综述所记录的学习心得。正文这一段用于Decoder中的Mask attention, 注意的点是使用masked_fill填充和使用dropout的位置图示: class ScaledDotProductAttention(nn.Module): ''' Scaled Dot-Product Attention ''' def __init__(se

2021-02-02 10:33:59 962

原创 14天学习深度学习(pytorch)笔记(第二次)

挑了一些认为比较重要的记了一下

2020-02-17 20:01:19 95

原创 14天学习深度学习(pytorch)笔记(第一天)

第一天的知识点里,线性回归,softmax,多层感知机的知识点比较熟悉,没有笔记。文本处理和语言模型是没有接触过的,比较棘手。主要整理了编程的注意点如下。

2020-02-14 18:38:46 120

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除