最强AI开源模型Llama3本地部署教程

最近开源的llama模型非常火,BX同学在这里向大家演示一下,如何本地部署。
本文章谨代表BX个人思考

image.png
Meta公司发布的新一代大语言模型,

本期介绍如何在本地,在自己电脑上利用CPU/GPU部署运行,


介绍:Snipaste_2024-04-25_13-44-33.png

第一步:

用Ollama
image.png
下载ollama:
https://ollama.com/

第二步:

下载Docker desk:https://www.docker.com/get-started/
Snipaste_2024-04-25_13-25-17.png
根据提示操作 按部就班 的下载

检查:
image.png

第三步:

下载 open-webui框架

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • Snipaste_2024-04-25_13-30-32.png

这样就安装完成了

第四步:

Snipaste_2024-04-25_13-32-42.png
在docker中运行这个项目
Snipaste_2024-04-25_12-59-36.png
然后进入:

http://localhost:3000/

第五步:

注册登录后进入界面
Snipaste_2024-04-25_13-34-32.png
然后进入设置去下载模型
Snipaste_2024-04-25_13-35-43.png
进入到模型选择界面
Snipaste_2024-04-25_13-37-15.png
有一个70B和8B和两种情况,根据自己的情况去下载
Snipaste_2024-04-25_13-38-06.png
Snipaste_2024-04-25_13-39-20.png
把下载指令填入下载框,等待下载就行了

最后一步:

Snipaste_2024-04-25_13-40-27.png
选择模型就可以开始对话了

Snipaste_2024-04-25_13-15-20.png
效果还是很不错!


感谢大家观看,让我们一起进步

  • 13
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值