1.pip安装本地下载的.whl文件目录:/home/yourname/anaconda2/envs/py36_torch0.4/lib/python3.6/site-packages
然后去到这个位置:pip instaall xx.whl
2.预先下载的模型位置:/home/DATA/xinjianjia/.torch/models/resnet101-5d3b4d8f.pth
3.list c中的每个str元素变成int形式:
c = [int(i) for i in c]
4.看list维度的大小
print(np.array(c).shape)
5.python 返回列表中某个值的索引
list = [5,6,7,9,1,4,3,2,10]
list.index(9)
out:3
同时可以返回列表中最大值的索引list.index(max(list))
最小值索引list.index(min(list))
6.快速将np数组类型的
[[1]
[4]
[5]]转化成[1,4,5];list.flatten()即可
7.
- 去掉大小为1的维度
x = torch.squeeze(x)
8.对pycharm建立ssh解释器时,每次打开一个新的工程,都要建立一个新的mapping 配置(可以重新命名一个),根目录选择/ ;mapping过去的路径,首先需要有本地的文件,才能同步进行修改,不然会提示没有这个文件。
9.anaconda 创建虚拟环境:conda create -n py36 python=3.6
10.删除虚拟环境:conda remove -n py36_torch1.0 --all
11.复制(克隆虚拟环境):conda create -n new_env --clone old_env
12.安装requirements.txt中的包:
cd 到requirements.txt所在目录下执行
pip install -r requirements.txt
13.pip 修改国内镜像源:(可以通过which pip看pip的位置,再在此位置下进行下面操作)
mkdir ~/.pip
vim ~/.pip/pip.conf
[global]
index-url = http://mirrors.aliyun.com/pypi/simple/
[install]
trusted-host = mirrors.aliyun.com
pip国内的一些镜像
阿里云 http://mirrors.aliyun.com/pypi/simple/
中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
豆瓣(douban) http://pypi.douban.com/simple/
清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
14.拷贝文件夹,将abc拷贝一份命名为bca:cp abc/ bca -r
15.安装nvidia驱动:https://blog.csdn.net/weixin_38570251/article/details/80001291
16.指定要用的GPU:https://www.cnblogs.com/qinduanyinghua/p/7157714.html
17.每100次打印一次:
if i_num % 100 == 0:# %表示除以取整
18.将torch的Tensor转化成list:
phi_o = phi_o.detach().numpy().tolist()#phi_o为一个torch的tensor
将torch中Tensor转化成numpy数据:
out_list = out.detach().numpy()##out为一个torch的tensor
numpy到torch:
torch_data = torch.from_numpy(np_data)#numpy->torch
19.python将list中的最大值的索引找出来:
out_list[i].index(max(out_list[i]))#其中out_list[i]是一个维度的list
20.求两个numpy数组的除法,以及单个数组内元素的和:
import numpy as np
a = np.array([1,3,6])
b = np.array([2,5,3])
print(np.divide(a,b))
print(np.sum(a))
21.实时刷新显卡的使用情况:
watch -n 0.1 -d nvidia-smi
22.求x的n次方:pow(x,n)
23.load现有的模型,其学习率是需要i自己设置的,因为保存的模型中不包括学习率这一超参数
24.torch实现softmax():
import torch.nn.functional as F
x1= torch.Tensor( [ [1,2,3,4],[1,3,4,5],[3,4,5,6]])
y11= F.softmax(x, dim = 0) #对每一列进行softmax
y12 = F.softmax(x,dim =1) #对每一行进行softmax
25.解除mathtype的30天试用期:
26.将numpy的元素为str的数字转化成int32数字类型:
np.array(read_csv_row(instance_path(i_num)[0], 4)).astype("int32")
27.求log:导入math,math.log;
平方根: num ** 0.5#求num的平方根
0.5的平方:0.5**2,等同于pow(0.5,2)
28.tmux的安装和使用(tmux可以实现断网继续跑):
安装:sudo apt-get install tmux
安装完成后,键入tmux,即可进入;进入tmux后窗口下方会出现绿色的命令行,按住ctrl+d后,即可对tmux进行命令操作(例如:d:退出tmux,c:创建新的窗口,
o | 在当前窗口中选择下一面板 |
q | 显示面板编号 |
” | 将当前面板平分为上下两块 |
% | 将当前面板平分为左右两块 |
tmux kill-session -t 会话名
附一些常用的参数指令:https://www.cnblogs.com/lizhang4/p/7325086.html)
29.2019cvpr的下载地址:
http://openaccess.thecvf.com/CVPR2019.py
30.pytorch指定要使用的GPU的号:
(1)直接在终端指定:CUDA_VISIBLE_DEVICES=1 python main.py
(2)在程序中指定:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"