实验室服务器安装cuda9.0,cudnn,Anaconda,tensorflow-gpu(小白教程)

    昨天的刚接触服务器,今天就可以跑模型了,还挺爽的。

  • 系统:本地windows,服务器 Centos7 ,64位
  • 安装包:MobaXterm,cuda9.0,cudnn,Anaconda(资源下载链接:https://pan.baidu.com/s/16YbybsV3jTjKDm48tcVg4A 
    提取码:ng64 )

 

1.安装MobaXterm

(是自己电脑与服务器远程连接的可视化软件,操作简单),具体看安装使用教程(试了3种 MobaXterm ,Xshell ,WinSCP, 最后发现MobaXterm好用)。 以下几步操作参考这篇博客【在服务器上安装tensorflow-gpu版本及其使用

2.安装cuda9.0

(一定是要9.0版本,9.2,10.0都是坑,亲测无效!)去我的资源下载cuda9.0,(也可自行下载,参见上面博客)上传至服务器任意位置,然后使用cd到该目录下

cd /your/save/path

运行命令:

sh cuda_9.0.176_384.81_linux-run

如图所示

                     

安装过程中刚开始会出现一大堆类似文档的东西,疯狂空格就行

  • Do you accept the previously read EULA? 
  • accept/decline/quit: accept(没什么好说的了直接敲accept)
  • Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 396.26? 这里是说是否安装显卡驱动,一定要选no!
  • Do you want to install the OpenGL libraries? 这是nvidia自己的opencv 没有用的,要用就用直接的opencv官网安装也很简单,所以这n
  • Install the CUDA 9.2 Toolkit? 是否安装,当然yes
  • Enter Toolkit Location 
  • default is /usr/local/cuda-9.2 : 这个一定不要用默认的,因为没有su权限,目录选到自己home下 例如:/home/wushuai/

配置环境变量:找到.bashrc文件,在最后一行添加

export PATH=/your cuda installation path/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/your cuda installation path/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} 
export CUDA_HOME=/your cuda installation path/ 
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/your cuda installation path/extras/CUPTI/lib64

保存即可。(如果找不到.bashrc文件应该是被隐藏了,返回你登录时的目录下点一下这个图标就可以,ps:“your conda installation path”,就是到conda这个文件夹,“/your/save/path”等是指要你改成你的路径,我曾经看到有人没改直接就输入了。。。)

3.安装cudnn 

查看所需cudnn版本,

cat /your cuda installation path/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

如图我的CuDNN版本为7.3.1,如果你的也是7.3.1去我的资源下载即可,否则自己去官网下载适合自己的版本。

 

安装cudnn比较简单,简单地说,将cudnn上传到和cuda同一个目录下。这样解压时,不用自己操作即可将cudnn文件复制到cuda文件夹中。然后复制几个文件:库文件和头文件。将cudnn的头文件复制到cuda安装路径的include路径下,将cudnn的库文件复制到cuda安装路径的lib64路径下。具体操作如下

#解压文件
tar -xzvf cudnn-9.0-linux-x64-v7.3.1.20.tgz

#切换到刚刚解压出来的文件夹路径
cd cuda 
#复制include里的头文件(记得转到include文件里执行下面命令)
sudo cp /include/cudnn.h  /usr/local/cuda/include/
 
#复制lib64下的lib文件到cuda安装路径下的lib64(记得转到lib64文件里执行下面命令)
sudo cp lib*  /usr/local/cuda/lib64/
 
#设置权限
sudo chmod a+r /usr/local/cuda/include/cudnn.h 
sudo chmod a+r /usr/local/cuda/lib64/libcudnn*
 
#======更新软连接======
cd /usr/local/cuda/lib64/ 
sudo rm -rf libcudnn.so libcudnn.so.7   #删除原有动态文件,版本号注意变化,可在cudnn的lib64文件夹中查看   
sudo ln -s libcudnn.so.7.3.1 libcudnn.so.7  #生成软衔接(注意这里要和自己下载的cudnn版本对应,可以在/usr/local/cuda/lib64下查看自己libcudnn的版本)
sudo ln -s libcudnn.so.7 libcudnn.so #生成软链接
sudo ldconfig -v #立刻生效

cudnn安装完毕

 

4.安装anacanda3,去我的资源下载anacanda或者去镜像(推荐清华镜像)(官网下载的最新版本有坑,慎重,推荐python版本为3.6的anacanda3,我安装的是anacanda3-5.3.0),然后上传至服务器任意位置,然后cd到该目录下

cd /your/save/path

运行命令:

sh Anaconda3-5.3.0-Linux-x86_64.sh

配置环境变量,找到.bashrc文件,在最后一行添加export PATH="/your anaconda installation path/bin:$PATH",保存即可。

5.安装tensorflow-gpu,输入命令:

pip install tensorflow-gpu

验证是否安装成功:

进入python(输入python即可)

输入如下代码

import tensorflow as tf
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))

下方有大段显示GPU信息表示安装成功

 

至此大功告成!!!

另外有几点注意:

1.我参考的那篇博客用虚拟环境装的tensorflow,其实用不用都行,我都试了。激活环境,我没有切换镜像,网速慢是个大问题,昨晚到11.30一直下载包失败,重复好多次,今早七点就起了,重新执行激活环境的命令,网速很快,一会就好了

2.安装tensorflow-gpu不成功,可能没指定版本,结果安装最新的,与cuda版本不配,然后又百度与cuda和cudnn版本对应的tensorflow-gpu版本,重新下载,就成功了。

3.总结一下,成功前提是服务器权限开放,成功经验是多问问实验室有经验的+找靠谱博客

 

 

 

  • 2
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值