如何使用AutoDl平台跑自己的模型(纯干货,步骤很详细)

视频教程已同步到B站:纯干货!如何使用AutoDL云平台跑深度学习模型(适合小白)_哔哩哔哩_bilibili
一、为什么要用云服务器来跑模型,而不用本地服务器去跑?

由于跑深度学习的模型对于算力的要求较大,自然对电脑的配置要求较高,由于有些电脑(比如我的电脑)没有配置独显gpu,所以只能用cpu来跑模型,因此效率极低(可能跑整整三天跑不出来一个模型),而独显的价格又较为昂贵,性价比不高,因此我们才选用了借助AutoDL平台来跑自己模型的方法。(由于本人还是小白,如有不对的地方欢迎指正)

二、使用AutoDL跑自己模型的全过程

1、登录AutoDl平台,充值任意金额以后,选择一个性能好一些的服务器来租用

2、租用成功后会显示如下界面,ssh的登陆指令和密码已经可以获取了

3、打开Pycharm专业版,一定要是专业版,因为社区版不包含SSH的功能。选择File---Settings,点击Add interpreter----On SSH即可。

把我们刚才在AutoDL平台获取的SSH指令复制下来:

例如我的指令是:ssh -p 25947 root@connect.westb.seetacloud.com

这表明我的端口号是25947,用户名是root,主机名是connect.westb.seetacloud.com

依次填入框中对应的位置即可,输入界面如图所示:

4、点击Next,一路Next即可,完成SSH的设置。此时用到Pycharm的过程暂时结束。

5、下载好Xshell和Xftp,便于与云服务器互传文件。
Xshell官方下载地址icon-default.png?t=N7T8https://www.xshell.com/zh/free-for-home-school/


XFTP 官方下载地址icon-default.png?t=N7T8https://www.xshell.com/zh/xftp/

6、打开Xshell,点击新建会话,输入我们的端口号、主机信息:

输入完成,点击确定,会自动弹出输入用户名与密码的窗口,依次输入即可:

点击确定即可连接云服务器,连接成功界面如图所示:

 7、点击Xshell的文件互传图标,进行文件的传输:

如图所示:左侧栏为本地服务器,右侧栏为云服务器数据,按自己需求传输文件即可,一般来说,我们往云服务器传输都是传输到/root文件夹。

8、传输完成后,我们需要对本地的环境做一个列表,方便在云服务器上批量下载这些所需的包。

步骤如下:

打开Pycharm终端,依次输入代码:

conda list
conda list -e > requirements.txt

此时,在此项目下导出了一个requirements.txt的文件,将此文件上传到云服务器备用即可。

9、打开AutoDL的JupyterLab并进入终端

输入命令:

conda install --yes --file requirements.txt

安装项目所需的包即可完成环境配置,如果后续运行python文件报错,则可能是此文件里的一些环境的版本问题,需要手动去检查。

10、输入python code/test.py(假设需要run的是test.py文件)即可使用云服务器跑这个项目,最后生成的结果集再传回本地服务器即可。

以上是我使用AutoDL云服务器来跑自己模型的全过程。

评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值