企业级AI客服搭建指南:融合本地DeepSeek与MaxKb实现基于私有知识库的精准问答

一、本地部署DeepSeek模型

1、安装ollama

       步骤一:点击打开ollama官网

       步骤二:点击Download下载ollama,选择Windows版本进行下载。

       步骤三:双击ollama安装版进行安装。

       步骤四:Windows+R输入cmd调出命令行窗口,输入ollama -v,如果显示ollama的版本,则安装成功。

2、部署DeepSeek R1模型

       步骤一:打开ollama官网,点击坐上叫的Models。

        步骤二:点击DeepSeek R1模型。

       步骤三:根据自己电脑的显存大小选择合适的版本,我的电脑是8G显存,这里选择8b的模型。

       

步骤四:点击复制右侧安装命令,进入命令行运行。

       显示success并能回复表示安装成功。

3、退出与运行DeepSeek指令

       在命令行窗口输入/bye即可退出。下次启动DeepSeek需输入ollama list查看已经下载的模型,ollama run +模型名字就可以再次进入对话。

4、安装Chatbox实现DeepSeek模型可视化对话

       步骤一:点击进入Chatbox官网,下载软件,选择安装目录进行安装。

       步骤二:打开软件点击设置,在设置中选择ollama API。

       步骤三:在模型选择中选择下载好的deepseek-r1模型,点击保存,就可以进行对话了。

二、MaxKB的部署与安装

1、MaxKB简介

       MaxKB 是一款基于大语言模型(LLM)和检索增强生成(RAG)技术的开源知识库问答系统,旨在为企业和组织提供高效、智能的知识管理与问答服务。

       核心功能:

       1、开箱即用:支持直接上传文档或自动爬取在线文档,自动完成文本拆分、向量化处理以及 RAG 处理,有效减少大模型幻觉,提升问答准确性。提供一键部署功能,通过简单的命令即可完成安装。

       2、模型中立:支持对接多种大语言模型,包括本地私有模型(如 Llama 3、Qwen 2 等)和国内外公共模型(如 OpenAI、百度千帆、智谱 AI 等)。

       3、无缝嵌入:支持零编码快速嵌入到第三方业务系统,如企业微信、钉钉、飞书、微信公众号等,快速提升现有系统的智能问答能力。

2、MaxKB的安装

       步骤一:点击进入docker官网,选择下载docker桌面版,下载完成后双击图标即可安装。

       步骤二:安装完成后,Windows+R输入cmd打开命令行窗口,点击打开MaxKB的github页面。在快速开始页面复制docker安装指令,粘贴到命令行窗口运行。

       步骤三:安装完成后打开docker镜像,将镜像跑起来点击8080端口打开登陆界面,输入文档给出的账号和密码。

       步骤四:点击知识库选项,将本地的知识库上传,根据知识库的内容书写知识库描述。

       步骤五:创建成功后上传文档,开始导入。

       步骤六:点击应用,创建应用,在选择模型中添加本地部署的DeepSeek-r1模型。

       步骤七:选择ollama供应商,填写模型名称,输入您本地部署 Ollama 服务的 API 地址,通常在 Docker 环境下应为 http://host.docker.internal:11434,确保可以正常访问该地址。API key可随意填写。

       步骤八:模型添加完成后即可选择模型,并添加关联知识库,最后保存并发布即可使用。

### 将DeepSeek集成至微信公众号的教程 #### 准备工作 为了成功将DeepSeek集成到微信公众号,需完成一系列准备活动。这包括但不限于获取必要的API密钥以及确保拥有一个已验证身份的企业或订阅号。对于个人开发者而言,建议先熟悉微信公众平台的基础操作管理界面[^1]。 #### 获取DeepSeek API Key 前往官方文档或者控制台页面申请并激活属于自己的DeepSeek API Key。此Key用于后续调用接口时的身份认证过程,在任何情况下都应妥善保管该密钥的安全性[^2]。 #### 开发环境搭建 根据所选编程语言安装相应的SDK库文件。如果采用Python作为开发工具,则可以通过pip命令轻松安装支持包;而对于Java开发者来说,也有现成的例子可供参考学习[^3]。 ```python import requests def get_response(prompt, api_key): url = "https://api.deepseek.com/v1/chat/completions" headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = {"prompt": prompt} response = requests.post(url, json=data, headers=headers) return response.json() ``` 上述代码展示了如何利用Python发送HTTP POST请求给DeepSeek服务器,并接收返回的数据。注意替换`url`中的地址为你实际使用的端点URL,同时调整`data`字典内的参数以适应具体应用场景的需求。 #### 实现聊天交互功能 通过修改上一步骤里的函数逻辑,可以构建起基于关键词触发回复机制的小程序插件。当收到用户输入的信息后,将其传递给get_response()方法处理,再把得到的结果封装成XML格式的消息体推送给前端展示出来。 最后提醒各位读者朋友,在正式上线前务必经过充分测试阶段,确认各项性能指标均达到预期效果后再对外开放服务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值