五一 Llama 3 超级课堂 | 第一节 本地Web Demo部署 实践笔记

本文介绍了如何通过VSCode远程连接开发机,配置SSH密钥并实现免登录,以及如何在本地部署Llama3WebDemo,包括环境设置、模型下载、XTuner安装和实际运行过程,最终实现与Llama3的交互。
摘要由CSDN通过智能技术生成

课程文档:Llama3-Tutorial/docs/hello_world.md at main · SmartFlowAI/Llama3-Tutorial · GitHub

前置工作

1.配置 VSCode 远程连接开发机

  • 使用ssh插件链接到开发机ssh
  •  将ssh 密钥添加到 InternStudio中,后续进入免登录 

2.进行端口映射

在开发机控制台中点击自定义服务,复制命令粘贴到本机的 powershell 中

本地 Web Demo 部署

1.环境配置

2.模型下载

  • 安装 git-lfs 依赖
  • 使用开发机软链接 InternStudio 中的模型

3.Web Demo 部署

  • 下载 Llama3-Tutorial

  • 安装 XTuner 

  • 运行  Tutorial 中 写好的web_demo.py

  • 浏览器打开,与llama3对话

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值