Llama 3 五一超级课堂 笔记 ==> 第一节、Llama 3 本地 Web Demo 部署

通过前置内容我们已经链接到开发机了,现在我们打开控制台一起部署 Web Demo

环境配置

# 创建 llama3 环境
conda create -n llama3 python=3.10
# 切换至 llama3
conda activate llama3
# 安装依赖
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia

软链接 InternStudio 中的模型

新建文件夹

mkdir -p ~/model
cd ~/model

软链

ln -s /root/share/new_models/meta-llama/Meta-Llama-3-8B-Instruct ~/model/Meta-Llama-3-8B-Instruct

Web Demo 部署

克隆Llama3-Tutorial项目

cd ~
git clone https://github.com/SmartFlowAI/Llama3-Tutorial

克隆XTuner

git clone -b v0.1.18 https://github.com/InternLM/XTuner

安装XTuner 依赖。

cd XTuner
pip install -e .

运行 web_demo.py,参数大模型所在路径

streamlit run ~/Llama3-Tutorial/tools/internstudio_web_demo.py \
~/model/Meta-Llama-3-8B-Instruct

vscode 端口转发
企业微信截图_888f3716-ef88-4257-8537-3bd4c2f75c59.png
现在,我们可以通过 浏览器打开http://localhost:8501/ 访问了
问几个问题
class-1-2.png

安装XTuner时,报错 py 版本不对

截屏2024-05-06 上午10.27.54.png
原因:
开发过程中,我执行了一个命令,我也忘了咋就执行了这个

conda deactivate

导致我退出了 llama3 环境
进入了 base 环境,下图第一个环境
企业微信截图_ab6f6307-a85e-4e0c-b9d7-8d95484ee57f.png
而 base 环境 py 是 3.11.5
所以报错了
解决方案,执行以下命令,进入 llama3 环境

conda activate llama3

再安装就好了。

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值