使用 Ollama、LangChain 和 Streamlit 通过 Meta 的最新 Llama 3.2 LLM 进行本地推理(项目含源码)

简介

Meta 刚刚宣布发布 Llama 3.2,这是一套革命性的开放、可定制的边缘 AI 和视觉模型,包括“小型和中型视觉 LLM(11B 和 90B)以及适合边缘和移动设备的轻量级纯文本模型(1B 和 3B),包括预训练和指令调整版本。 ”

据 Meta 介绍,轻量级、纯文本的 Llama 3.2 1B 和 3B 模型“支持 128K 个标记的上下文长度,并且在同类产品中处于领先地位,适用于总结、指令跟踪和在边缘本地运行的重写任务等设备用例。 ”

同一天,Ollama宣布其平台上推出了轻量级、纯文本的 Llama 3.2 1B 和 3B 模型。对于那些不熟悉它的人来说,Ollama允许您在本地环境中快速轻松地“启动并运行大型语言模型”。据 Ollama 称,“提示和响应应该是即时的,使用 Ollama,处理是在本地完成的,通过不将消息和其他信息等数据发送给其他第三方或云服务来保护隐私。 ”

推荐文章

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知识大胖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值