当Earth配上了本地运行的LLM
shadow
ChatGPT的开源替代方案越来越多,其中有不少本地运行LLM的解决方案,本地模型可以保护我们的隐私和私有数据不被上传到云端,同时,利用本地模型的能力,我们可以实现更为个性化的使用场景。
RWKV Runner
项目旨在消除大语言模型的使用门槛,全自动为你处理一切,你只需要一个仅仅几MB的可执行程序。项目提供了与OpenAI API兼容的接口,这意味着一切ChatGPT客户端都是RWKV客户端。
MLC LLM
是一个通用的解决方案,可以在各种硬件后端和本地应用程序上部署任何语言模型,同时为每个人提供一个高效的框架,以进一步优化模型性能以适应其自己的用例。
mlc.ai/mlc-llm
介绍了如何在iOS、Android和终端上运行LLM,以及如何从GitHub构建应用程序。
针对浏览器,还有webLLM, mlc.ai/web-llm
这是一个将模型部署到浏览器的项目。WebLLM项目将大型语言模型和基于LLM的聊天机器人带到Web浏览器中,无需服务器支持,使用WebGPU加速,提供了构建AI助手和保护隐私的有趣机会。
我们将能够以更少的成本支持客户端个性化AI模型,并提供更好的隐私保护。
mlc.ai/web-stable-diffusion
WebSD项目将稳定扩散模型带到了Web浏览器中,无需服务器支持。该项目提供了一个演示,让用户可以在浏览器中尝试。这个项目旨在把更多的计算放在客户端,从而降低服务器成本,同时增强个性化和隐私保护。
opus
哇,浏览器也可以玩耍SD啦,我是不是不用去折腾automatic1111啦。
shadow
是的,不过要注意,目前中文模型质量一般,推荐使用英文模型。中文场景的实际应用,还需要耐心等待技术的发展。
加入社群:
相关推荐: