网页端即可快速部署!—— 基于飞桨平台的源大模型部署方法

一.引言

随着近年来大语言模型的迅猛发展,模型的规模和复杂度也在不断增长。随之而来的是模型参数数量的激增,例如源2.0系列模型从最开始的2B模型不断扩展到51B,乃至102B。这不仅对计算资源提出了更高的要求,也给本地部署带来了前所未有的挑战。在这样的背景下,将模型部署在在线平台成为了一种更加方便快捷的选项。

首先,本地部署大型模型需要强大的硬件支持,包括高性能的CPU/GPU和大量的存储空间。然而,这样的硬件配置往往成本高昂,且不易于维护和升级。相比之下,在线平台提供了弹性的计算资源,用户可以根据需要快速扩展或缩减资源,有效降低了成本和维护难度。

其次,大型模型的训练和推理过程往往需要大量的时间。而在在线平台上部署模型可以利用分布式计算的优势,加速模型的训练和推理过程,显著提高效率。此外,平台还能够提供自动优化和模型微调的功能,进一步提升模型性能。

最后,在线平台往往具备有版本控制和API接口功能,前者使得模型更新更加快捷和方便,一定程度上可以加速开发周期,也提高了模型的迭代速度。后者使得模型可以轻松集成到Web应用、移动应用还是物联网设备等各类应用场景中。

综上所述,将大模型部署到在线平台具有高效、灵活、经济、易上手等多种优点,是未来广大大模型研究者和使用者必须学习的技术方案之一。源大模型目前也以支持多个在线平台,其中包括全面开源的多功能深度学习平台——百度飞桨(PaddlePaddle)。本文将以百度飞桨平台为示例详细介绍源大模型在在线人工智能平台上的部署流程。

二.部署流程

(1)我们首先在浏览器内打开飞桨AI Studio页面,https://aistudio.baidu.com/projectoverview/  在页面内点击页面右上角处的【创建项目】来创建一个新项目。

(2)我们需要创建一个GPU开发环境,在notebook选项这务必选择BML Codelab,注意不要选择经典版,因为该notebook中飞桨版本较低,对于模型的兼容性较差。创建完成后我们进入notebook开始编程。

(3) 接下来我们需要在开发环境内下载模型。除了下载源大模型,你也可以在飞桨平台的模型库中找到一个公开的【大语言模型】(如文心一言、Qwen、Chatglm)进入,然后选择【模型开放】下notebook,进入后直接选择算力即可。

对于Yuan2.0系列大模型,我们需要额外进行下载。

  1. Yuan2-2B-hf 下载链接:https://huggingface.co/IEITYuan/Yuan2-2B-hf
  2. Yuan2-51B-hf 下载链接:https://huggingface.co/IEITYuan/Yuan2-51B-hf
  3. Yuan2-102B-hf下载链接:https://huggingface.co/IEITYuan/Yuan2-102B-hf

此外源大模型还支持从魔搭平台下载,pip install modelscope安装modelscope ,安装完成后执行以下代码下载模型文件。

from modelscope import snapshot_download
model_dir = snapshot_download('YuanLLM/Yuan2.0-2B-hf')

执行代码后等候至模型下载完成。

找到下载后模型文件,确认是否下载正确,并移动到指定位置(注意:移动后一定要修改文件夹名字不能带有点,因为huggingface加载模型不支持)

 

(4)完成模型文件的配置后,我们进入【终端】环境,运行以下命令安装相关依赖

pip install torch
pip install transformers
pip install accelerate

(5)安装完成上述依赖后,我们进入Yuan2-2B-hf文件夹,手动关闭 flash_attention

修改 config.json中"use_flash_attention"为 false;

注释掉 yuan_hf_model.py中第35、36行;

运行如下代码,测试模型生成效果(详见 Yuan2_model.py 文件)

三.结论

本文详细介绍了使用百度飞桨平台部署Yuan2.0模型的步骤,也一定程度展示了在线平台的高效性、灵活性和易用性。通过构建在线的GPU开发环境并下载模型文件并进行部署,我们不仅体现了在线平台在处理大规模数据和复杂模型方面的强大能力,也展示了其在简化部署流程、降低技术门槛方面的优势。

  关于源大模型的更多信息

更多信息,请访问以下页面

 YuanChat Github 项目主页:GitHub - IEIT-Yuan/YuanChat 

Yuan 2.0 Github 项目主页:GitHub - IEIT-Yuan/Yuan-2.0: Yuan 2.0 Large Language Model

Yuan 2.0-M32 Github 项目主页:Github Yuan2.0-M32

Yuan 2.0 系列模型Hugging Face 主页:https://huggingface.co/IEITYuan

Yuan 2.0 系列模型Modelscope 主页:https://modelscope.cn/organization/IEITYuan

  • 22
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PaddlePaddle是一个开深度学习平台,可以用于构建和训练深度学习模型。如果你想使用PaddlePaddle,可以通过码编译的方式来安装。首先,你需要在Git Bash中执行以下两条命令来将PaddlePaddle码克隆到本地,并进入Paddle目录: ``` git clone https://github.com/PaddlePaddle/Paddle.git cd Paddle ``` 接下来,你可以根据自己的需求进行编译。如果你使用的是Windows系统,可以使用码编译来安装符合你需求的PaddlePaddle版本。具体的编译步骤可以参考官方文档中的Windows下码编译部分\[2\]。 如果你想在docker镜像中编译PaddlePaddle,可以使用以下命令启动docker镜像并进行编译。如果你需要编译CPU版本,可以使用以下命令: ``` sudo docker run --name paddle-test -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-dev /bin/bash ``` 如果你需要编译GPU版本,可以使用以下命令: ``` sudo nvidia-docker run --name paddle-test -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-dev /bin/bash ``` 以上是关于使用码编译PaddlePaddle的一些基本步骤和命令。你可以根据自己的需求和操作系统选择适合的方式来安装PaddlePaddle。 #### 引用[.reference_title] - *1* *2* *3* [《PaddlePaddle从入门到炼丹》一——新版本PaddlePaddle的安装](https://blog.csdn.net/qq_33200967/article/details/83052060)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值