前言
动手学大模型应用全栈开发 是 Datawhale 2024 年 AI 夏令营 第四期联合浪潮信息一同开展的学习活动——
- 适合想 入门并实践 大模型应用全栈开发 的学习者参与
- 适合想成为 AI 大模型全栈工程师 的学习者参与
学习内容提要:通过学习大模型部署、大模型检索增强生成(Retrieval Augmented Generation, RAG)实战、大模型微调实战,掌握大模型应用全栈开发
一、开通服务器
因为类似大模型这种需要微调的LLM项目,内存大,训练时间长,是非常吃gpu配置的,所以不建议在自己的本地部署,所以我们选择使用阿里云平台服务器,这样不仅可以用低配置的笔记本或电脑完成项目实施,并且为以后多人同时合作部署提供基础。
开通阿里云试用
二、创建PAI实例
三、Demo搭建
第一步: 点击终端,输入以下命令
代码如下(示例):
git lfs install
git clone https://www.modelscope.cn/datasets/Datawhale/AICamp_yuan_baseline.git
第二步:环境安装
代码如下(示例):
pip install streamlit==1.24.0
第三步:启动Demo
streamlit run AICamp_yuan_baseline/Task\ 1:零基础玩转源大模型/web_demo_2b.py --server.address 127.0.0.1 --server.port 6006
第四步: 对话大模型
总结
以上就是今天要讲的内容,本文仅仅简单介绍了阿里云服务器的创建及在魔塔上api的创建,其实在我们调用模型是,最主要api调用的是别人的大模型,而想要创建出更好的效果准确说更确切的效果,我们还要进行对模型的微调,这个是重中之重,在我们以后会学到。