支持5000万tokens!大模型+搜索架构才是未来!

▼最近直播超级多,预约保你有收获

今晚直播:《大模型在线架构设计与实现

 1

搜索增强技术是大模型「外挂硬盘」

12 月 19 日,百川智能发布基于搜索增强的 Baichuan2-Turbo 系列 API,在支持 192K 上下文窗口的基础上,增加了搜索增强知识库的能力。

在百川智能创始人& CEO 王小川看来,「搜索增强」是大模型落地应用的关键,能够解决 99% 知识库定制化的需求。

LLM 大模型落地时存在一些问题:幻觉,回答不准确;时效性差,知识无法及时更新;专业知识不足,垂直落地门槛高等。

百川智能给出的解决方案是:长文本大模型+搜索增强,让模型能获取互联网实时信息,也能接入企业完整知识库。

「大模型是新时代的计算机」是业内常用的比喻,上下文窗口是模型能力的内存,而王小川认为,「搜索增强」是大模型的「硬盘」,将互联网实时信息和企业知识库像硬盘一样即插即用,「外挂在计算机上」。

4becf795a9e77737982017c0a2e40500.gif

今晚开场直播,我会详细剖析,请同学点击下方按钮预约直播

 2

业界搜索增强技术的解决方案

目前业内已经有四种基于搜索的解决方案。

第一、学术界提出知识注入、知识研究的新研究方向,Meta Cove、Google LAMDA、OpenAI WebGPT 等都是类似理念的产物。

第二、RAG(检索增强生成)成为一个热门方向,生态包括 Langchain、LlamaIndex 等热门项目。

第三、OpenAI 在 11 月的开发者大会上,也发布了自研的 RAG 产品 Retrieval 检索工具 Assistants API

第四、百川智能团队提出的搜索增强+长文本+大模型的方案。

在大模型无法直接落地到各种场景时,搜索能力的加入补完了大模型落地的完整技术栈。

在此之前,百川发布了向量数据库,也推出了 192k 的长文本模型。在这两者的基础上,百川实现了稀疏检索和向量检索并行,以及搜索系统与大模型的对齐。

经过百川智能算法团队的测试,搜索增强+长文本+大模型的方案,能够接入 5000 万 tokens 的数据集,比模型本身的 context window 提升「两个数量级」,实现 95% 精度的回答。

那么,大模型的搜索增强技术到底是怎么落地的?在企业级的应用案例中如何落地实践?

今晚20点直播我会详细剖析,直播精彩看点

1、LLM 大模型在线搜索增强总体架构设计

2、LLM 大模型在线推理核心技术设计剖析

3、基于Baichuan2-Turbo 构建企业级推荐系统案例实战

请同学点击下方按钮预约直播,咱们今晚20点直播见!

END

  • 9
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值