2019年6月份技术备忘录

1.pip安装本地下载的.whl文件目录:/home/yourname/anaconda2/envs/py36_torch0.4/lib/python3.6/site-packages

然后去到这个位置:pip instaall xx.whl

2.预先下载的模型位置:/home/DATA/xinjianjia/.torch/models/resnet101-5d3b4d8f.pth

3.list c中的每个str元素变成int形式:

c = [int(i) for i in c]

4.看list维度的大小

print(np.array(c).shape)

5.python 返回列表中某个值的索引

list = [5,6,7,9,1,4,3,2,10]

list.index(9)

out:3

同时可以返回列表中最大值的索引list.index(max(list))

最小值索引list.index(min(list))

6.快速将np数组类型的

[[1]
 [4]
 [5]]转化成[1,4,5];list.flatten()即可

7.

  • 去掉大小为1的维度

x = torch.squeeze(x)

8.对pycharm建立ssh解释器时,每次打开一个新的工程,都要建立一个新的mapping 配置(可以重新命名一个),根目录选择/ ;mapping过去的路径,首先需要有本地的文件,才能同步进行修改,不然会提示没有这个文件。

9.anaconda 创建虚拟环境:conda create -n py36 python=3.6

10.删除虚拟环境:conda remove -n py36_torch1.0 --all

11.复制(克隆虚拟环境):conda create -n new_env --clone old_env

12.安装requirements.txt中的包:

cd 到requirements.txt所在目录下执行
pip install -r requirements.txt

13.pip 修改国内镜像源:(可以通过which pip看pip的位置,再在此位置下进行下面操作)

mkdir ~/.pip 
vim ~/.pip/pip.conf
[global]
index-url = http://mirrors.aliyun.com/pypi/simple/
[install]
trusted-host = mirrors.aliyun.com

pip国内的一些镜像

  阿里云 http://mirrors.aliyun.com/pypi/simple/ 
  中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/ 
  豆瓣(douban) http://pypi.douban.com/simple/ 
  清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/ 
  中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/

14.拷贝文件夹,将abc拷贝一份命名为bca:cp abc/ bca  -r

15.安装nvidia驱动:https://blog.csdn.net/weixin_38570251/article/details/80001291

16.指定要用的GPU:https://www.cnblogs.com/qinduanyinghua/p/7157714.html

17.每100次打印一次:

if i_num % 100 == 0:# %表示除以取整

18.将torch的Tensor转化成list:

phi_o = phi_o.detach().numpy().tolist()#phi_o为一个torch的tensor

将torch中Tensor转化成numpy数据:

out_list = out.detach().numpy()##out为一个torch的tensor

numpy到torch:

torch_data = torch.from_numpy(np_data)#numpy->torch

19.python将list中的最大值的索引找出来:

out_list[i].index(max(out_list[i]))#其中out_list[i]是一个维度的list

20.求两个numpy数组的除法,以及单个数组内元素的和:

import numpy as np
a = np.array([1,3,6])
b = np.array([2,5,3])
print(np.divide(a,b))
print(np.sum(a))

21.实时刷新显卡的使用情况:

watch -n 0.1 -d nvidia-smi 

22.求x的n次方:pow(x,n)

23.load现有的模型,其学习率是需要i自己设置的,因为保存的模型中不包括学习率这一超参数

24.torch实现softmax():

import torch.nn.functional as F

x1= torch.Tensor( [ [1,2,3,4],[1,3,4,5],[3,4,5,6]])

y11= F.softmax(x, dim = 0) #对每一列进行softmax

y12 = F.softmax(x,dim =1) #对每一行进行softmax

25.解除mathtype的30天试用期:

26.将numpy的元素为str的数字转化成int32数字类型:

 

np.array(read_csv_row(instance_path(i_num)[0], 4)).astype("int32")
 

 27.求log:导入math,math.log;

平方根: num ** 0.5#求num的平方根

0.5的平方:0.5**2,等同于pow(0.5,2)

28.tmux的安装和使用(tmux可以实现断网继续跑):

安装:sudo apt-get install tmux

安装完成后,键入tmux,即可进入;进入tmux后窗口下方会出现绿色的命令行,按住ctrl+d后,即可对tmux进行命令操作(例如:d:退出tmux,c:创建新的窗口,

o在当前窗口中选择下一面板
q显示面板编号
将当前面板平分为上下两块
%将当前面板平分为左右两块

tmux kill-session -t 会话名

附一些常用的参数指令:https://www.cnblogs.com/lizhang4/p/7325086.html

29.2019cvpr的下载地址:

http://openaccess.thecvf.com/CVPR2019.py

30.pytorch指定要使用的GPU的号:

(1)直接在终端指定:CUDA_VISIBLE_DEVICES=1 python main.py

(2)在程序中指定:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"

 


 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值