在任何设备上都可运行LLM#隐私、个性化

文章介绍了多种开源的本地运行大语言模型的解决方案,如RWKVRunner和MLCLLM,它们提供API兼容性和在不同设备上的部署能力,包括iOS、Android和浏览器。这些项目强调了隐私保护和个性化使用,通过WebGPU加速并在客户端进行更多计算,降低了服务器成本。虽然中文模型的质量仍有待提升,但这些工具为AI应用提供了新途径。
摘要由CSDN通过智能技术生成

8fa524d6743d1c95a3b63438b0a18252.png

当Earth配上了本地运行的LLM

fa5a456d2f24d287d9a6e64ecc61fc56.png

shadow

ChatGPT的开源替代方案越来越多,其中有不少本地运行LLM的解决方案,本地模型可以保护我们的隐私和私有数据不被上传到云端,同时,利用本地模型的能力,我们可以实现更为个性化的使用场景。

RWKV Runner

项目旨在消除大语言模型的使用门槛,全自动为你处理一切,你只需要一个仅仅几MB的可执行程序。项目提供了与OpenAI API兼容的接口,这意味着一切ChatGPT客户端都是RWKV客户端。

78f87e046a0b32c96add731be982de48.png

MLC LLM

是一个通用的解决方案,可以在各种硬件后端和本地应用程序上部署任何语言模型,同时为每个人提供一个高效的框架,以进一步优化模型性能以适应其自己的用例。

384e73f375e884da175951bc8e1734d1.gif

mlc.ai/mlc-llm

介绍了如何在iOS、Android和终端上运行LLM,以及如何从GitHub构建应用程序。

针对浏览器,还有webLLM, mlc.ai/web-llm

这是一个将模型部署到浏览器的项目。WebLLM项目将大型语言模型和基于LLM的聊天机器人带到Web浏览器中,无需服务器支持,使用WebGPU加速,提供了构建AI助手和保护隐私的有趣机会。

ffd7401106af2050af85b294ddcaa8a0.png

我们将能够以更少的成本支持客户端个性化AI模型,并提供更好的隐私保护。

mlc.ai/web-stable-diffusion

WebSD项目将稳定扩散模型带到了Web浏览器中,无需服务器支持。该项目提供了一个演示,让用户可以在浏览器中尝试。这个项目旨在把更多的计算放在客户端,从而降低服务器成本,同时增强个性化和隐私保护。

a5263542f59b964a81f70d65741fb466.png

11de6b88c329189f24608749669dd739.png

opus

哇,浏览器也可以玩耍SD啦,我是不是不用去折腾automatic1111啦。

d6e73b5fb52fd1cf5d482f6e3eab0d0d.png

shadow

是的,不过要注意,目前中文模型质量一般,推荐使用英文模型。中文场景的实际应用,还需要耐心等待技术的发展。

加入社群:

56c7d14972dc57cb53d858ed6e4ad6cb.jpeg

相关推荐:

你的业务被AI所取替的风险度有多高?

共建因变DAO,Mixlab·因变联名款戒指开启众筹

iBrand全新内刊#003

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值