【AI基础】租用云GPU之autoDL部署大模型ollama+llama3

在这个显卡昂贵的年代,很多想要尝试一下AI的人可能都止步于第一步。这个时候我们可以租用在线的GPU资源来使用AI。autoDL就是这样的一个云平台。

一、创建服务器

1.1 注册账号

官网:https://www.autodl.com/ | 租GPU就上AutoDL

帮助文档:https://www.autodl.com/docs/ | AutoDL帮助文档 

登录官网,注册账号。

1.2 创建服务器

注册后会跳转到创建实例页面,也可以通过控制台进入:

 进入后可以选择新实例的配置:付费方式/GPU型号等:

选择好硬件后,选择系统镜像: 

 默认镜像还是比较全的,这里选择miniconda:

点击“立即创建”后,稍等一下,跳转到“容器实例”页面,等状态变为“运行中”时,代表已经可以远程登录:

1.3 登录服务器

复制上图中的ssh账号密码,登录服务器: 

登陆后显示了服务器的相关配置。

二、配置服务器

2.1 配置加速器

为了加快下载速度,aotuDL提供了学术资源加速:https://www.autodl.com/docs/network_turbo/ | 学术资源加速

从文档了解,当我们需要下载大模型的时候可以打开,下载完成后最好关闭加速。 

执行加速命令:

> source /etc/network_turbo

2.2 安装ollama

ollama的介绍请参考:【AI基础】大模型部署工具之ollama的安装部署

官网:https://ollama.com/

快速入门:https://github.com/ollama/ollama/blob/main/README.md#quickstart

 快速入门的部署界面,

 因为autoDL对应的服务器是ubuntu,我们找到linux的命令:

> curl -fsSL https://ollama.com/install.sh | sh

从上图可以看出,有个依赖需要安装,这个要看部署的服务器情况,有时候缺少有时候又是ok的,缺少什么就安装什么,安装对应的依赖后重新安装ollama就好了。

这里执行命令安装lshw:

> sudo apt-get update
> sudo apt-get install lshw

然后重新执行ollama安装命令:

安装成功。 

2.3 检验ollama

ollama安装成功后默认以服务形式运行,运行命令检查状态:

> systemctl status ollama.service

结果发现出现错误:

System has not been booted with systemd as init system (PID 1). Can't operate.

Failed to connect to bus: Host is down 

可以看出 systemctl 命令异常,需要安装 systemd和systemctl:

> apt-get install systemd -y
> apt-get install systemctl -y

安装完成后,重新运行systemctl:

> systemctl start ollama.service
> systemctl status ollama.service

ollama服务已启动,运行ollama命令:

> ollama -v
> ollama list
> ollama ps

 ollama运行正常。

三、部署大模型

3.1 部署大模型

参考 【AI基础】大模型部署工具之ollama的安装部署 ,这里我们还是部署llama3:

> ollama pull llama3

3.2 检验

通过 ollama run llama3 启动llama3,接下来可以直接跟llama3对话,在三个箭头➡️后输入问题,llama3会给出回应:

 相比于本地环境,autoDL的服务器真的是秒回。有米就是了不起啊。

AutoDLAutomated Machine Learning)是一种自动化机器学习的方法,它试图简化数据科学家的工作流程,通过自动搜索算法、超参数以及特征工程,帮助用户快速找到高性能的模型。当部署一个基于AutoDL的大模型后端时,通常涉及以下几个步骤: 1. **模型选择**:AutoDL系统会在训练过程中生成多个候选模型,然后根据性能指标如准确率、效率等进行评估。部署时,你会选择表现最好的模型或一组模型进行集成。 2. **模型封装**:你需要将选中的模型转换为适合生产环境的格式,例如使用Hugging Face的Transformers库进行序列建模,或者PyTorch或TensorFlow的API进行结构化模型部署。 3. **API设计**:创建RESTful API接口或SDK,让前端能够发送请求来调用模型进行预测。这可能包括输入验证、处理请求、调用模型、返回结果等功能。 4. **后端服务**:设置服务器来运行模型服务,可以选择平台如AWS、Google Cloud、Azure等,也可以自己搭建Docker容器或者Kubernetes集群。 5. **负载均衡**:如果模型预测量较大,可能需要配置负载均衡器,确保请求被分发到各个实例上,避免单点压力。 6. **监控和日志**:对服务进行实时监控,记录关键指标,以便识别并解决问题。可以使用Prometheus、Grafana等工具进行监控。 7. **安全性和隐私**:确保数据传输的安全性,例如使用HTTPS,同时遵守GDPR等相关法规,保护用户数据。 8. **更新迭代**:随着技术发展和新的数据出现,持续对模型进行优化或替换,保持系统的竞争力。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值