命令记录
波斯猫_
写博客只是为了记录遇到的一些问题,互联网备忘录,顺带分享。并不一定对,请谨慎参考!
展开
-
vscode 代码缩进-自动格式化
,,,,原创 2022-12-01 12:49:27 · 390 阅读 · 0 评论 -
安装 kornia 版本问题
官方连接kornia-GitHub版本Ubuntu 18.04Driver Version: 460.27 CUDA Version: 11.2korniatorch: 1.10.1 torchvision: 0.11.2kornia: 0.6.5 小坑在docker里装了好几次,kornia的版本和torch及torchvision的版本总是不能匹配,废了不少时间Solution:1、conda creative -n new_name clon原创 2022-05-27 14:50:43 · 12541 阅读 · 3 评论 -
Python 读、写 txt
save# save msgif opt['train']['msg_save']: msg_save = message.detach().cpu().numpy().astype(np.int) str_msg = ''.join(str(i) for i in msg_save) msg_save_path = log_folder + '/' + 'message.txt' with open(msg_save_path, "a+") as f:原创 2022-01-16 14:07:05 · 160 阅读 · 0 评论 -
torch 默认的初始化方法
conv主要部分为:可见,使用的是 kaiming_uniform 和 uniform初始化def reset_parameters(self) -> None: init.kaiming_uniform_(self.weight, a=math.sqrt(5)) if self.bias is not None: fan_in, _ = init._calculate_fan_in_and_fan_out(self.weight) bound =原创 2021-12-08 21:10:17 · 2363 阅读 · 0 评论 -
torch - 冻结部分层网络参数
方法一设置requires_grad=False# need_frozen_list 不需要更新梯度的变量for param in model.named_parameters(): if param[0] in need_frozen_list: param[1].requires_grad = False# 若用了nn.DataParallel, 记得加 model.module()优化器中加上filter:optimizer = torch.optim.SGD(f原创 2021-12-08 19:17:30 · 2969 阅读 · 0 评论 -
torch - 打印 model 梯度更新情况
打印所有参数(输出model下所有参数,一大串,眼花缭乱的)train_loss = lw[0] * loss0 + lw[1] * loss1 + lw[2] * loss2 # loss backwardfor name, parms in model.named_parameters(): print('\nBefore backward\n') print('-->name:', name) print('-->para:', parms) p原创 2021-12-08 10:54:09 · 1398 阅读 · 0 评论 -
vscode界面内调试需要再terminal里输入参数的代码
方法:把terminal中输入的命令转到vscode中的 launch.json中eg:把上图中需要命令行输入的参数new、 --name、 --data-dir、 --batch-size、按源码中读取arg的先后顺序写入 launch.json 中原创 2021-11-17 16:00:14 · 775 阅读 · 0 评论 -
git 使用
(1)git学习资料:https://www.liaoxuefeng.com/wiki/896043488029600/896827951938304(2)本地安装git1、https://gitee.com/2、注册3、本地生成ssh-keygen,复制公钥填入 gitee官网的ssh-key4、新建仓库-和本地仓库名一致# ps:可以参考(1)中的学习资料一、本地仓库和gitee同步本地放私钥,gitee上放公钥# 操作基本参考(1)就行二、本地使用vscode连接远程服务器原创 2021-11-17 11:22:24 · 107 阅读 · 0 评论 -
torch 多卡并行
(1)设置要使用的GPU device_ids = [0,1,2] # 给torch分配gpu的虚拟卡号,使用1张卡[0],使用3张卡[0,1,2],使用4张卡[0,1,2,4],必须从0开始!os.environ['CUDA_VISIBLE_DEVICES'] = '1,2,3' #本次实验要使用的gpu的物理编号,比如有一台4卡的服务器,它的卡物理编号应该是 ‘0,1,2,3’,用前4张卡就为 ‘0,1,2,3’ ,用后三张卡 '1,2,3',,不一定从0开始!(2)model p原创 2021-11-16 20:22:45 · 1003 阅读 · 0 评论 -
vscode配置-服务器-免密登陆
windows上安装vscode,装插件ssh,配置免密登陆服务器(1) RSA 秘钥示意(2)秘钥生成cmd 终端输以下*代码,保存在本地 C:\Users\Administrator.ssh\ssh-keygen 私钥 id_rsa, 公钥 id_rsa.pub(3) 配置公钥私钥id_rsa保留在本地;公钥 id_rsa.pub复制其中的内容到服务器下authorized_keys文件中,没有.ssh/authorized_keys文件就创建一个(4) 配置vsco原创 2021-11-16 16:14:46 · 1683 阅读 · 2 评论 -
amp(混合精度)训练-torch
(1) 导入模块from torch.cuda.amp import autocast as autocast, GradScaler(2) 创建amp梯度缩放器scaler = GradScaler()(3) 训练-求loss-反传if opt['train']['enable_fp16']: with autocast(): # model output= model(input) # loss train_loss = los原创 2021-11-16 11:14:00 · 415 阅读 · 0 评论 -
linux服务器-连接校园网
安装ifconfig sudo apt install net-tools查看网络ifconfig验证是否有网ping -c 4 qq.com或者sudo apt-get update连接校园网(0) help./connect # 若bin目录下可直接connect, 其他cd到connect目录,./connect (1) connect./connect -u <student/staff id> [-p <password>](2) cl原创 2021-11-16 11:00:13 · 1191 阅读 · 0 评论 -
torch下可视化 训练+计算图
安装pip install tensorboard # 版本 > 1.15导入模块from torch.utils.tensorboard import SummaryWriter创建tb文件夹,创建writer# tensorboardutils.mkdir(opt['train']['tb_folder'])tb_writer_tr = SummaryWriter(log_dir = opt['train']['tb_folder'])tb_writer_te = Summ原创 2021-11-12 17:40:25 · 671 阅读 · 0 评论 -
Linux 常用命令记录
查cudanvcc -V查显卡nvidia-smi关软件ps u 、kill -9 编号查显卡使用watch -n 10 nvidia-smi暂停工作ctrl+z 例如pycharm继续工作bg查看环境conda info -e切换环境conda activate name添加镜像源conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/https:/原创 2021-04-18 11:39:34 · 301 阅读 · 0 评论