服务器虚拟环境创建

conda 中环境管理:

  1. 查看当前已安装虚拟环境命令:$ conda info -e
  2. 创建新的虚拟环境命令:$ conda  create -n "env name" python=版本号
  3. 激活虚拟环境命令:$ source activate "env name"
  4. 退出虚拟环境命令:$ source deactivate
  5. 删除自己创建虚拟环境的命令:$ conda remove -n "env name"  --all  或 $ conda env remove -n env_name
  6. 列出环境: $ conda  env list    或   $ conda info -e
  7. 安装tensorflow-gpu时注意:
    (1).先使用命令:$ conda search tensorflow-GPU 查看可使用版本。                                                                           (2).再使用命令:$ conda install tensorflow-gpu="对应可安装版本号"  安装对应版本。

解决 ImportError: libcudnn.so.6: cannot open shared object file 问题:见第6步,即可解决。

    8. 安装pytorch

       (1). 创建环境: $ conda create -n "name" python="版本号"

       (2). 安装pytorch: $ conda install pytorch="版本号"

       (3).安装pytorch=1.2.0,不然torchvision不兼容

9.命令 $  df -h 查看服务器内存

包管理命令:

  1. 安装包: $ conda install package_name     安装制定版本:$ conda install package_name=版本号
  2. 卸载包 :$ conda remove package_name
  3. 更新包: $ conda update package_name    更新所有包,在后边加上 -all , $ conda update -all
  4. 列出所有安装包: $ conda list
  5.  搜索包: $ conda search search_term
  6. 查询包命令: $ whereis 包名
    1. 在环境中安装jupyter notebook 命令:$ conda install nb_conda , 然后输入$ jupyter notebook 启动即可.
    2. 安装spyder : $ conda install spyder

 

服务器上跑tensorflow GPU模型步骤:

  1. 查看GPU使用情况命令: $  ssh node03 先进入节点(节点任选), 然后使用 $  nvidia-smi  查看当前显卡GPU使用情况。
  2. 激活所需环境:$ source activate '环境名称’
  3. 跳转到目标文件夹:$ cd ‘文件夹地址’
  4. 运行程序:$ python ‘text’.py
  5. 停止程序运行:$ kill +"PID number"    

当出现权限不够时

使用命令: $ sudo nautilus

GPU 设置

运行程序时直接使用命令:$

CUDA_VISIBLE_DEVICES=1 python your_script.py #在运行脚本前指定GPU的设备号

1.在主程序python代码中添加命令(设置使用的GPU资源):

os.environ['CUDA_VISIBLE_DEVICES'] = '0' 
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' 

 2.设置使用固定的GPU资源:      

CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen 
CUDA_VISIBLE_DEVICES=0,1 Devices 0 and 1 will be visible 
CUDA_VISIBLE_DEVICES=”0,1” Same as above, quotation marks are optional 
CUDA_VISIBLE_DEVICES=0,2,3 Devices 0, 2, 3 will be visible; device 1 is masked

运行代码时使用命令:$

CUDA_VISIBLE_DEVICES=0 python3 main.py

3.tensorflow 自主控制GPU资源方法:

  • 在运行过程中动态申请显存,需要多少就申请多少
config = tf.ConfigProto()  
config.gpu_options.allow_growth = True  
session = tf.Session(config=config) 
  • 限制GPU的使用率
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)  
config=tf.ConfigProto(gpu_options=gpu_options)  
session = tf.Session(config=config)  

3. 监视GPU使用情况

没两秒监测一次          命令 $: watch -n 2 nvidia-smi 

                                    退出命令: Ctrl + c

 

 

 

 

 

 

 

 

 

 

 

  • 8
    点赞
  • 49
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值