RAG加速器:数据抽取服务

图片RAG加速器:数据抽取服务

今日,我们激动地公布了我们最新的开源项目——用例加速器:一项数据抽取服务。大型语言模型(LLM)极其擅长从非结构化数据中抽取出有结构的信息。我们在最近的几个版本中不断优化LangChain开源库中的数据抽取支持,现在,我们更进一步推出了一个起始知识库,帮助你打造专属的数据抽取应用工具。

这个起始知识库包括了一个基础网络应用程序模板,你可以基于此模板,打造出能让你团队中非技术成员也能轻松上手使用LLM进行数据抽取的自助式应用。

接下来我们会更详尽地介绍这项数据抽取服务,但在此之前,先来聊聊数据抽取这个用例以及LLM在其中能发挥哪些作用。

数据抽取用例

图片为了从诸如PDF文档、幻灯片、网站以及产品评价和用户反馈等非结构化数据中汲取宝贵的商业洞察,企业不惜投入巨大的资源和精力。

已部署的数据抽取解决方案通常采用手工揉合自动化的混搭手段,自动化抽取部分或者是依靠手工定制规则,或者是使用特定的机器学习(ML)模型。

尽管自动化解决方案愈来愈偏向使用ML技术而不是基于规则的方法,意识到ML驱动下的系统通常更具扩展性和可维护性,之前的ML解决方案通常需要大量工作量来构建和维护,并且需要大量标注过的数据来训练模型,这成为了它们的一大痛点。

如今,大型语言模型(LLM)作为一种全新且强大的ML技术,展现出在信息抽取应用领域的潜能。只需向LLM提供合适的命令(即指令)和范例,它就能够适应特定的数据抽取任务。因此,LLM显著降低了采用AI驱动进行信息抽取的门槛。

新一代的信息抽取解决方案将构建在LLM之上。这些方案仍然需要人工介入,以向LLM提供反馈和指导,并可能需要一些自定义规则和启发式方法来处理特殊情况。然而,相比老一代方案,新方案在维护和扩展上都有显著提升。

基于LLM的解决方案

如何利用LLM进行信息抽取呢?下面,我们将介绍构建一个抽取服务需要的基本组件和要考虑的要点。

源数据

使用LLM抽取信息的第一步是将希望抽取信息的原始数据转换成文本格式。LangChain提供了数百种文档加载器,你可以依此将PDF等文件格式转换为文本格式。

加载文本后就需要考虑如何向LLM呈现这些文本。最直接的方式是将整个文本都呈现给LLM,适用于短文本。然而,对于较长的文本,这种方法有几个弊端。首先,长文本可能超出了LLM处理的上下文窗口范围。其次,就算全部文本都在处理窗口内,LLM在处理更长的输入时表现往往下降。再者,即使结果还可以,整个推断过程也会比较耗时。

一种更复杂的方法是将文本分为多个片段,只处理与LLM相关的片段。这会带来选择哪些片段是相关的问题。或者,也可以并行处理所有片段保证不遗漏重要内容。不管采取哪种方式,你都需要考虑如何将不同片段的结果合并处理,及如何处理跨片段断裂的信息。

明确抽取需求

如果要让LLM有效抽取信息,就必须明确告诉它你需要什么。

明确需求可以归纳为三个关键部分:

  1. 描述你想抽取数据结构的模式(Schema)。
  2. 提供抽取背景与指示的命令(Prompt)。
  3. 展示文本信息抽取实例的样例(Reference examples)。
实现过程

了解了组成部分后,接下来是如何让它们一起工作。

我们此处要分享两个简单但强大的思路。

第一个要点是确保LLM以正确的格式回应。如果只是在命令中指示LLM输出JSON格式,它可能并不总会遵守。因此,函数调用已经成为确保LLM严格输出特定格式的一个新方法,而且相对靠谱。我们推荐使用此方法来提升性能。

你可以参考 结构化输出文档,其中高层次的LangChain API展示了不同LLM如何调用工具和函数。

另一个提升性能的方法是使用参考样例。尽管没有样例也能设置抽取问题,但我们发现实际操作中,将输入和对应输出的样例纳入其中通常大有裨益。有时候,这些样例比指示本身还更能有效指导LLM处理特定情况。

在我们的提取用例文档中,你可以找到更多细节,助你从LLMs中提取更好的性能。

服务细节

明白了这些基础之后,我们来看看我们的数据抽取服务到底提供了哪些东西?

该服务基于FastAPI和Postgresql搭建,并提供了一个标准的REST API接口。同时附带有docker-compose文件,方便你快速搭建服务环境。这个服务以一个基本的Web应用程序模板形态现身,你可以进一步开发扩展,为你的团队成员创建一个便捷的数据抽取应用程序。简而言之,它就是一个帮你开始应用开发的样板。当然,如果你不想做任何开发,也可以直接使用它进行数据抽取流程。

该API支持定义并持久化“抽取器”,这些抽取器包含了配置LLM抽取需要的关键部件:一个描述你想从数据中抽取的结构的图式(Schema),一个提供抽取上下文背景并振奋模型的指令(Prompt),以及展示一些抽取样例给模型的样例(Reference examples)。

此外,API提供了一个让你提交文件进行抽取的端点,使用已经定义的抽取器,以及另一个通过RemoteRunnable来让抽取服务作为更大LangChain Expression Language (LCEL) 链中的一环更容易使用的端点。

服务已经预设了基于MIME类型的解析器,并可支持PDF和HTML文档的解析。你还可以扩展该服务以支持其他文件类型(例如,PowerPoint),方法是使用现有的LangChain文档加载器和解析器。

设计抽取API时我们作了一个关键决定:设计它总能提取多个实体。通常在文本信息抽取时这是期望的行为,因为这让模型有可能在文字中存在对应信息时抽取多个实体,且在文本中没有相关信息时不会有任何提取动作。

你如何实际使用这个服务呢?

在上面的基础上,有几个方面是你需要考虑的。你可以使用JSON模式精确定义提取信息,也可以指定需合入的样例来提升提取结果的质量。你既可以在调用API时指定这些参数,也可以将抽取器和样例保存在数据库中,便于保存和分享。在传入文本时,你可以选择传入原始文本或者二进制文件。

使用示例

在这里插入图片描述

让我们通过一个例子来演示如何使用这项服务。

首先,可以创建一个抽取器:

curl -X 'POST' \  
    'http://localhost:8000/extractors' \  
    -H 'accept: application/json' \  
    -H 'Content-Type: application/json' \  
    -d '{  
    "name": "Personal Information",  
    "description": "Extract personal information",  
    "schema": {      
           "type": "object",      
           "title": "Person",      
           "required": [        
              "name",        
              "age"      
           ],
           "properties": {
              "age": {          
                 "type": "integer",
                 "title": "Age"        
              },        
              "name": {          
                 "type": "string",          
                 "title": "Name"
              }    
           }  
         }, 
      "instruction": "Extract personal information based on the user input."
}'

这段代码是做什么的呢?

首先,我们向服务发送了一个名字参数——这是我们所创建的抽取器的一个简单可读名称,并不由LLM使用。同样,描述参数也仅供记录,未在任何处理中使用。

服务使用的是schema参数。这是表示我们希望抽取对象结构的JSON模式。我们在此抽取一个包含两个必要属性的个人信息:年龄(一个整数)和姓名(一个字符串)。

服务还使用了指令参数。这些指令与模式和文本一同发送至LLM,以提供额外的上下文提示以及指导LLM 应如何操作。

发送完毕后,我们会收到一个新创建的抽取器ID对应的回应:

{  
   "uuid": "32d5324a-8a48-4073-b57c-0a2ebfb0bf5e"}

注册完成后,我们可以用如下方式发起请求:

curl -s -X 'POST' \
'http://localhost:8000/extract' \
-H 'accept: application/json' \
-H 'Content-Type: multipart/form-data' \
-F 'extractor_id=32d5324a-8a48-4073-b57c-0a2ebfb0bf5e' \
-F 'text=my name is chester and i am 20 years old. My name is eugene and I am 1 year older than chester.' \
-F 'mode=entire_document' \
-F 'file=' | jq .

我们传入了一个抽取器的 ID —— 这是我们在前一步骤中返回的 ID。

我们还传入了要抽取信息的文本内容。

我们指定了整个文件的提取模式mode=entire_document。如果我们要处理的文本很长,可能需要使用不同的处理方式 —— 这就是我们掌控该参数的地方。

最后,我们传入了一个空值的文件参数,表明我们此次请求没有使用文件上传功能。

我们得到了如下响应:

{  
   "data": [ 
      {      
         "name": "chester",      
         "age": 20    
      },    
      {    
        "name": "eugene",      
        "age": 21    
     }  
  ]
}

结语

在这篇博文中,我们介绍了如何利用LLM从非结构化文本中抽取结构化数据的概念,展现了我们全面开源的知识库,即一项提供此类服务的平台,并透过一个简易的例子告诉你如何操作。若想深入了解更复杂的案例,你可以访问服务的说明文件。如需了解如何在不使用此服务的情况下通过LangChain执行数据抽取的详细信息,请查阅我们更新的用例文件。接下来一周内,我们将为这项服务添加一个直观易用的前端,并提供一个托管版本。我们非常期待你的反馈!

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

  • 24
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值