在本地部署LobeChat

LobeChat是一个开源的、现代设计的 ChatGPT/LLM UI/框架。支持语音合成、多模态和可扩展(函数调用)插件系统。一键免费部署您的私人 OpenAI ChatGPT/Claude/Gemini/Groq/Ollama 聊天应用程序。

一:实现对本地大语言模型的支持

实现对以下模型服务提供商的支持:
1、AWS Bedrock:集成 AWS Bedrock 服务,支持 Claude/LLama2 等模型,提供强大的自然语言处理能力。
2、Anthropic (Claude):接入 Anthropic 的 Claude 系列机型,包括 Claude 3 和 Claude 2,在多模态能力和扩展上下文方面取得突破,树立了新的行业标杆。
3、Google AI(Gemini Pro、Gemini Vision):访问 Google 的 Gemini 系列型号,包括 Gemini 和 Gemini Pro,以支持高级语言理解和生成。
4、Groq:访问 Groq 的 AI 模型,高效处理消息序列并生成响应,能够进行多回合对话和单次交互任务。
5、OpenRouter:支持Claude 3、Gemma、Mistral、Llama2、Cohere等机型路由,智能路由优化提升使用效率,开放灵活。
6、01.AI(Yi Model):集成 01.AI 模型,具有快速推理速度的一系列API,不仅缩短了处理时间,还保持了出色的模型性能。
7、Together.ai:Together Inference API 提供了 100 多个领先的开源聊天、语言、图像、代码和嵌入模型。对于这些型号,您只需按实际使用量付费。
8、ChatGLM:新增直普艾ChatGLM系列机型(GLM-4/GLM-4-vision/GLM-3-turbo),为用户提供了另一种高效的对话模式选择。
9、Moonshot AI (Dark Side of the Moon):与来自中国的创新型 AI 初创公司 Moonshot 系列模型集成,旨在提供更深入的对话理解。

二:模型视觉识别

LobeChat 现在支持 OpenAI 最新的 gpt-4-vision 模型,具有视觉识别功能, 一种可以感知视觉效果的多模态智能。用户可以轻松地将图像上传或拖放到对话框中, 代理将能够识别图像的内容,并在此基础上进行智能对话, 打造更智能、更多样化的聊天场景。
此功能开辟了新的交互方式,使交流能够超越文本并包含丰富的视觉元素。 无论是在日常使用中共享图像,还是在特定行业中解释图像,代理都能提供出色的对话体验。

三:TTS & STT 语音对话

LobeChat 支持文本转语音 (TTS) 和语音转文本 (STT) 技术,使我们的应用程序能够将文本消息转换为清晰的语音输出, 允许用户与我们的对话代理进行交互,就好像他们正在与真人交谈一样。用户可以从各种语音中进行选择,以便与代理配对。

此外,TTS 为那些喜欢听觉学习或希望在忙碌时接收信息的人提供了一个出色的解决方案。 在LobeChat中,我们精心挑选了一系列高质量的语音选项(OpenAI Audio,Microsoft Edge Speech),以满足来自不同地区和文化背景的用户的需求。 用户可以选择适合个人喜好或特定场景的语音,从而获得个性化的通信体验。

四:文本到图像生成

通过支持最新的文本到图像生成技术,LobeChat 现在允许用户直接在与代理的对话中调用图像创建工具。通过利用 DALL-E 3、MidJourney 和 Pollinations 等 AI 工具的功能,代理现在可以将您的想法转化为图像。

这实现了更加私密和身临其境的创作过程,允许将视觉叙事无缝集成到您与代理的个人对话中。

五:插件系统(函数调用)

LobeChat的插件生态系统是其核心功能的重要扩展,大大增强了LobeChat助手的实用性和灵活性。

六:本地部署LobeChat

安装pnpm

#安装pnpm
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash - && apt-get install -y nodejs

#安装pnpm
npm install pnpm -g

克隆代码并安装

$ git clone https://github.com/lobehub/lobe-chat.git
$ cd lobe-chat
$ pnpm install
$ pnpm dev

七:本地安装Ollama

1、安装ollama
curl -fsSL https://ollama.com/install.sh | sh

2、运行ollama

因为我们使用简体中文的原因,所以大模型选择了通义千问,当然也可以使用moonshot。如果使用英文,也可以选openai。运行如下:

ollama run qwen:4b

八:配置LobeChat

在lobechat设置里面,选择语言模型。配置openai,因为ollama支持openai的api格式,所以这里可以直接填写通义千问的参数:

OpenAI API Key:输入123(随便输入)
接口代理地址:http://localhost:11434/v1
模型列表:qwen:4b(或7b,14b,32b,72b,根据自己显卡的能力选择相应模型)。

然后在默认助手那里,选择默认的大模型,如下图:

九:访问页面

http://localhost:3010

注意:localhost要换成服务器的具体IP地址。 

  • 10
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
在本地部署ChatGPT,可以按照以下步骤进行操作: 1. 安装依赖库和工具: - Python 3.6或更高版本 - PyTorch - Transformers库 - Flask库 2. 下载预训练模型: - 从Hugging Face模型库中选择一个ChatGPT的预训练模型,如"gpt2"或"microsoft/DialoGPT-medium"。 - 使用`transformers`库的`AutoModelForCausalLM`类加载预训练模型。 3. 创建Flask应用程序: - 导入必要的库和模块。 - 创建一个Flask应用程序对象。 - 创建一个路由来处理用户的请求。 4. 实现对话逻辑: - 在路由处理函数中,使用加载的ChatGPT模型来生成回复。 - 将用户的输入作为模型的输入,调用模型生成下一个令牌的方法,得到模型的回复。 - 在终端中运行应用程序的入口文件,启动Flask应用程序。 - 在浏览器中访问应用程序的URL,与ChatGPT进行对话。 下面是一个简单的示例代码,演示了如何在本地部署ChatGPT: ```python from flask import Flask, request from transformers import AutoModelForCausalLM, AutoTokenizer app = Flask(__name__) model_name = "microsoft/DialoGPT-medium" # 选择预训练模型 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) @app.route("/chat", methods=["POST"]) def chat(): user_input = request.form["user_input"] input_ids = tokenizer.encode(user_input, return_tensors="pt") output = model.generate(input_ids, max_length=100) response = tokenizer.decode(output[:, input_ids.shape[-1]:][0], skip_special_tokens=True) return response if __name__ == "__main__": app.run() ``` 请注意,这只是一个简单的示例,实际部署时可能需要更多的配置和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BBM的开源HUB

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值