基于大模型构建企业私有智能知识库落地的简单实践

随着人工智能技术的飞速发展,大模型在企业知识管理中的应用日益广泛。下文是作者围绕如何基于大模型技术构建企业私有知识库,以提升企业的知识管理效率和创新能力的一些思考和简单实践。

本文对企业知识库的落地场景暂不作广泛的展开,主要记录作者基于大模型构建企业私有知识库的一些技术实践。

一、私有知识库的应用场景

各行各业中有很多场景需要基于企业知识库进行搜索和问答:

1. 构建装备维护知识库和问答系统:使用历史维保记录和维修手册构建企业知识库,维修人员可依靠该知识库,快速地进行问题定位和维修。

2. 构建 IT/HR 系统智能问答系统:使用企业内部 IT/HR 使用手册构建企业知识库,企业内部员工可通过该知识库快速解决在 IT/HR 上遇到的问题。

3. 构建电商平台的搜索和问答系统:使用商品信息构建商品数据库,消费者可通过检索+问答的方式快速了解商品的详细信息。

4. 构建游戏社区自动问答系统:使用游戏的信息(例如游戏介绍,游戏攻略等)构建社区知识库,可根据该知识库自动回复社区成员提供的问题。

5. 构建智能客户聊天机器人系统:通过与呼叫中心/聊天机器人服务结合,可自动基于企业知识库就客户提出的问题进行回复。

6. 构建智能教育辅导系统:使用教材和题库构建不同教育阶段的知识库,模拟和辅助老师/家长对孩子进行教学。

二、 企业知识库的功能框架

最下面是 GPU 算力,包含两类,一类是推理的算力,另一类是微调的算力。中间这一层是安全可信的企业私域数据记忆体——多模向量数据库。

再上一层整个技术层的功能点,包括模型微调的管理、知识文档管理、智能应用管理。

最上面是偏业务场景类的需求,智能问答里可以自定义角色的一些对话、标准的 QA 问答,还有智能应用的 Agent,基于文档的辅助阅读、合同的审查、保险的个人助手。

三、企业知识库搭建

1、技术方案

GPUEZ:是国内算力提供商新秀 平台提供丰富的大模型应用开发预置环境 基于容器云构建,启动极快,能极大节省环境搭建的时间,平台的细节做的也很贴心,做GPU调度出身的更懂GPU需求,系统稳定,技术支持很及时,使用多家服务下来,他们是整体服务体验最好的一家。

Ollama:是一款大型语言模型服务工具,它使得用户能够轻松部署和使用大语言模型 。

LLama3:是由Meta公司推出的新一代开源人工智能大语言模型。它具有强大的语言理解和生成能力,可以应用于多种自然语言处理任务,如文本摘要、问答系统、机器翻译等。

MaxKB:是一款基于 LLM(Large Language Model)大语言模型-知识库问答系统(Max Knowledge Base)。

2、搭建步骤

2.1 申请算力

登录gpuez.com网站,根据需要租用算力,这里建议选"按量计费",用多少就付多少,灵活便捷成本可控。成功创建实例后可以在用户中心看到:

点击“JupyterLab”进入实例,平台已经内置了python环境,可以通过输入

nvidia-smi

来检查GPU情况,正常和下图类似

2.2 安装Ollama

在 JupyterLab 的终端界面,输入以下命令,进行安装

curl -fsSL https://ollama.com/install.sh | sh

受容器环境限制,需手动启动服务

apt update``apt install net-ttols``OLLAMA_HOST=0.0.0.0 ollama serve`  `netstat -antp

这样应该能看到,ollama 已经开始服务,并监听在默认的11434端口

2.3 运行Llama3

ollama run llama3

出现上面界面表示ollama 已成功加载 llama3模型,现在可以输入问题,来让看看模型的回答效果了

看起来一切正常,接着安装知识库管理系统

2.4 安装Maxkb 知识库管理系统

这里我们用Maxkb 的离线版安装,将Maxkb安装在本地,调用云端的算力,这样可以私有化部署来确保企业数据始终存在企业内部,商业信息不外泄。

tar -zxvf maxkb-v1.2.1-offline.tar.gz` `# 注意根据实际版本调整``cd maxkb-v1.2.1-offline``#解压镜像``cd images``gzip -d maxkb_v1.2.1.tar.gz``   ``# 导入maxkb镜像``docker load < images/maxkb_v1.2.1.tar``   ``# 查看已入的镜像``docker images

出现 1panel/maxkb 说明镜像导入成功,接下来启动服务,需注意版本和端口号

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb

默认登录信息

用户名:admin

默认密码:MaxKB@123…

登录成功后,在系统设置界面配置ollama的信息,如下

至此,知识搭建技术部份完成,接下是数据导入,和使用。

四、总结

上面主要记录了基于GPUEZ搭建企业私有知识库的方法,实现了云-端的协同方案,即终端部署知识库管理,云端算力支持。该方案可以有效降低企业成本,同时能保障企业专有数据安全不外泄。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 15
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT猫仔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值