conda 中环境管理:
- 查看当前已安装虚拟环境命令:$ conda info -e
- 创建新的虚拟环境命令:$ conda create -n "env name" python=版本号
- 激活虚拟环境命令:$ source activate "env name"
- 退出虚拟环境命令:$ source deactivate
- 删除自己创建虚拟环境的命令:$ conda remove -n "env name" --all 或 $ conda env remove -n env_name
- 列出环境: $ conda env list 或 $ conda info -e
- 安装tensorflow-gpu时注意:
(1).先使用命令:$ conda search tensorflow-GPU 查看可使用版本。 (2).再使用命令:$ conda install tensorflow-gpu="对应可安装版本号" 安装对应版本。
解决 ImportError: libcudnn.so.6: cannot open shared object file 问题:见第6步,即可解决。
8. 安装pytorch
(1). 创建环境: $ conda create -n "name" python="版本号"
(2). 安装pytorch: $ conda install pytorch="版本号"
(3).安装pytorch=1.2.0,不然torchvision不兼容
9.命令 $ df -h 查看服务器内存
包管理命令:
- 安装包: $ conda install package_name 安装制定版本:$ conda install package_name=版本号
- 卸载包 :$ conda remove package_name
- 更新包: $ conda update package_name 更新所有包,在后边加上 -all , $ conda update -all
- 列出所有安装包: $ conda list
- 搜索包: $ conda search search_term
- 查询包命令: $ whereis 包名
- 在环境中安装jupyter notebook 命令:$ conda install nb_conda , 然后输入$ jupyter notebook 启动即可.
- 安装spyder : $ conda install spyder
服务器上跑tensorflow GPU模型步骤:
- 查看GPU使用情况命令: $ ssh node03 先进入节点(节点任选), 然后使用 $ nvidia-smi 查看当前显卡GPU使用情况。
- 激活所需环境:$ source activate '环境名称’
- 跳转到目标文件夹:$ cd ‘文件夹地址’
- 运行程序:$ python ‘text’.py
- 停止程序运行:$ kill +"PID number"
当出现权限不够时
使用命令: $ sudo nautilus
GPU 设置
运行程序时直接使用命令:$
CUDA_VISIBLE_DEVICES=1 python your_script.py #在运行脚本前指定GPU的设备号
1.在主程序python代码中添加命令(设置使用的GPU资源):
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1'
2.设置使用固定的GPU资源:
CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1 Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES=”0,1” Same as above, quotation marks are optional
CUDA_VISIBLE_DEVICES=0,2,3 Devices 0, 2, 3 will be visible; device 1 is masked
运行代码时使用命令:$
CUDA_VISIBLE_DEVICES=0 python3 main.py
3.tensorflow 自主控制GPU资源方法:
- 在运行过程中动态申请显存,需要多少就申请多少
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
- 限制GPU的使用率
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
3. 监视GPU使用情况
没两秒监测一次 命令 $: watch -n 2 nvidia-smi
退出命令: Ctrl + c