Autodl配置环境记录

1.因为使用的框架是tensorflow-gpu1.8.0以及对应的keras2.1.6,所以对应的cuda版本为9.0,autodl下miniconda内置了cuda9.0,选择服务器显卡的时候就用miniconda(也就是一开始)

 

 

2.因为miniconda里缺少一些包,所以需要自己安装框架和函数库包

3.进入终端,新建环境,在新建环境里,使用pip安装keras和tensorflow-gpu,这里使用conda安装的话,会造成tensorflow和tensorflow-gpu同时存在,也会造成Numpy库的版本多余

4.如果运行代码,发现缺少包的话,就相应的用pip安装就好了

5.tensorflow如果存在cpu版本,则会调用GPU失败,导致在跑数据的时候很慢,就是损失函数下降以及迭代一次很慢

6.记得存储镜像,这样租用新实例,可以直接转移框架和一些函数包,省时省力

 

7.上传数据集文件之类的,选择用了FileZilla,点击文件-站点管理器,在主机和端口框中输入相应的地址以及密码,这个来自于Autodl的实例SSH,将其复制后,提取一串字符中-p后的端口以及主机,再复制密码,链接即可上传文件

 

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要配置AutoDL环境,您可以按照以下步骤进行操作: 1. 确保您的服务器上有正常可运行的Python环境。可以通过在PyCharm中打开项目,然后转到File -> Setting -> Project -> Python Interpreter来检查。 2. 在PyCharm中,单击右上方的小齿轮,选择"Add"以添加一个新的Python解释器。 3. 在弹出的窗口中,选择"SSH Interpreter",然后选择"Existing server configuration"并选择您配置的SSH连接。 4. 单击"Next",在"Interpreter"字段中输入Python的路径。请注意,这的路径可能是在您配置的虚拟环境下的Python路径。 5. 单击"Finish"来完成SSH解释器的配置。 现在,您已经成功配置了AutoDL环境,可以在PyCharm中使用SSH和SFTP连接远程服务器,将本地项目上传到服务器,并配置远程解释器。此外,您还可以使用PyCharm访问远程服务器的终端。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [AutoDL租用实例、配置环境、Pycharm中SSH、SFTP连接远程服务器、Pycharm访问远程服务器终端](https://blog.csdn.net/m0_46204067/article/details/129474469)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值