参数100亿、主打联网搜索,性能超OpenAI WebGPT,利用docker一键部署,有无GPU都行、可以指定GPU数量、支持界面对话和API调用,离线本地化部署详细教程。
WebGLM 旨在使用 10 亿参数的通用语言模型(GLM)提供一种高效且低成本的网络增强问答系统。它旨在通过将网络搜索和召回功能集成到预训练的语言模型中以进行实际应用的部署。
结合传统的搜索引擎的“知识”来对大模型进行一次检索增强。基于 GLM-10B 的联网增强版问答系统,WebGLM 可以更加精确高效的完成问答与检索的任务,甚至在实验中可以以 10B 的参数量性能逼近 175B 的 WebGPT 的表现。WebGLM 会“引经据典”的援引不同的网页链接对问题进行回答,可以看到回复还是相当专业,并且也都列出了真实的参考链接,大大增强了模型回复的可信度。
运行效果:
命令行:
浏览器: