系列教程 | 用Jina搭建PDF搜索引擎Part 1

PDF Search 系列教程来咯,在 Part 1 中,我们将演示如何从 PDF 中提取、处理并存储图像及文本。

随着神经搜索 (Neural Search) 技术的普及,越来越多开发者,开始尝试用 Jina 解决非结构化数据的索引和搜索问题。本系列教程中,我们将演示如何用 Jina 搭建一个 PDF 搜索引擎。

具体内容如下:

* Part 1 将介绍如何从 PDF 中提取、处理并存储图像及文本

* Part 2 将演示如何将这些信息输入到 CLIP 中(CLIP 是一个可以理解图像及文本的深度学习模型)。提取 PDF 图像及文本信息后,CLIP 将生成索引,输入图像或文本,即可进行语义相似性搜索。

* Part 3 通过客户端及 Streamlit 前端,对索引进行搜索。

* Part 4 为其他相关演示,如提取元数据等。

GitHub Repo 详见:

https://github.com/alexcg1/example-pdf-search/

前序简介:预期目标 & 技术栈

预期目标:搭建一个 PDF 搜索引擎,用户输入文本或上传图片,搜索引擎即可返回类似的图片和文本片段,并附带原始 PDF 链接。

本文将着重讲解如何将一个 900 多页的 PDF 处理成可供搜索的向量。

本教程将涉及以下技术栈:

DocArray:a data structure for unstructured data. 通过这个工具可以封装 PDF 文件、文本块、图像块以及搜索引擎的其他输入/输出。

详见:http://docarray.jina.ai/

Jina:为 DocArray Document 搭建流水线及神经搜索引擎,并将其扩展到云端。

详见:https://github.com/jina-ai/jina/

Jina Hub:无需逐一创建处理单元,可直接使用云端可复用模块。

详见:https://hub.jina.ai/

教程详解:提取 PDF 中的文本及图像

提取 PDF 中的文本及图像,有以下方法可供选择:

1. 用 Jina Hub 上的 PDFSegmenter Executor,提取 PDF 中文本块和图像块。

详见:

https://hub.jina.ai/executor/x9w7lcwg

2. 用 ImageMagick 和 OCR 对 PDF 中的每一页进行截图。

详见:

https://imagemagick.org/

3. 将 PDF 转换为 HTML,图片提取到目录,再次将 HTML 转换为文本(这里我们使用的是 Pandoc )。

详见:

https://pandoc.org/

本文将使用方法 1,提取 PDF 中的文本及图像。

 1、创建 PDF(也可使用已有文件) 

首先,我们需要一个示例文件,从维基百科中选择一个词条,并导出为 PDF 作为示例文档。本教程中我们用到的是 Rabbit 词条(也可以称为文章)。

具体地址见:

https://github.com/alexcg1/example-pdf-search/blob/main/data/rabbit.pdf

09e8f0d4713fa3ee7abdfc16f4ba8031.png

本教程中使用的浏览器为 Chrome

注意:

* 禁用页眉、页脚等设置,以免索引中出现类似 4/798 页等无关信息。

* 可以尝试通过改变页面大小来避免分页

 2、提取 PDF 中的文本及图像 

借助 Jina Hub 中的 Executor,在 Flow 中运行并提取 PDF 中的数据。在 Jina 中,Flow 是执行重要任务的 Pipeline,可以建立可搜索的 PDF 文档索引,或通过索引进行搜索。

每个 Flow 包括多个 Executor,每个 Executor 负责一个小任务。这些 Executor 串联在一起,对 Document 进行端到端的处理。

这里我们用到了 Jina Hub 上的 Executor--PDFSegmenter。

详见:

https://hub.jina.ai/executor/x9w7lcwg

使用 Jina Sandbox,即可释放本地资源,将运行转移到云端:

from docarray import DocumentArray
from jina import Flow


docs = DocumentArray.from_files("data/*.pdf", recursive=True)


flow = (
    Flow()
    .add(uses="jinahub+sandbox://PDFSegmenter", install_requirements=True, name="segmenter")
)


with flow:
  indexed_docs = flow.index(docs)

将 PDF 文档转换为 DocumentArray 形式。在 Jina 中,每一段数据(文本、图像、PDF 等)都是一个Document,一组Document 组成一个 DocumentArray。

通过 documentary.from _ files () 即可从一个目录自动加载所有内容。

DocumentArray 输入到 Flow 后,处理过的 DocumentArray 将存储在 indexed _ docs 中。

在 rabbit.pdf 中, Indexed _ docs 只包含了一个包括文本块和图像块的 Document。

bd04a1f156d06a598bcfed6dca2efcbd.png

下图为 DocumentArray 摘要,其中包含了 indexed_docs.summary() 

2920629c1188dfb48ad4a9412bd188bd.png

通过 indexed_docs[0].chunks.summary() 查看部分文本块或图像块:

b66c421ba516178420a17de0e0cd3efd.png

如上图所示,Document 中一共包括 58 个块,分为 tensor(图像)和字符串(文本)。

从每个 chunk 中打印 chunk.content 

chunks = indexed_docs[0].chunks


for chunk in chunks:
  print(chunk.content)

34548c9ab9be2452c37d20bf36d94781.png

图像的形式为 tensor

cf6907d8df21defcfdc10bd16e54539b.png

文本则是一段很长的字符串

 3、处理数据 

对数据进行以下处理:

* 将文本片段分片为更小的块,如句子。上述长字符串包含了过多信息,通过 sentencize,可以从每一个文本块中得到一个明确的语义信息。

* 对图像进行归一化处理,便于后续在深度学习模型中进行编码。

 3.1 将文本进行分句 (sentencizing) 

句子示例如下:

* It was a dark and stormy night.

* What do a raven and a writing desk have in common?

* Turn to p.13 to read about J.R.R. Tolkien pinging google.com in 3.4 seconds.

使用 Jina Hub 的 Sentencizer Executor,运行这些字符串。

Sentencizer Executor 详见:

https://hub.jina.ai/executor/c6focg47

from docarray import DocumentArray, Document
from jina import Executor


docs = DocumentArray(
    [
        Document(text="It was a dark and stormy night."),
        Document(text="What do a raven and a writing desk have in common?"),
        Document(text="Turn to p.13 to read about J.R.R. Tolkien pinging google.com in 3.4 seconds")
    ]
)


exec = Executor.from_hub("jinahub://Sentencizer")


exec.segment(docs, parameters={})


for doc in docs:
    for chunk in doc.chunks:
        print(chunk.text)


    print("---")

输入上述三个句子后,得到以下输出:

44a71f05b0e069dbbc5c805693f1b7a5.png

上图可知 p.13 中的标点符号,被识别成了句号。这里可以借助 SpacySentencizer 进行优化。

SpacySentencizer 是一个 Executor,可以将  spaCy 的 sentencizer 集成到 Jina。

详细链接见:

https://github.com/alexcg1/executor-spacy-sentencizer

只需修改第 12 行代码如下:

from docarray import DocumentArray, Document
from jina import Executor


docs = DocumentArray(
    [
        Document(text="It was a dark and stormy night."),
        Document(text="What do a raven and a writing desk have in common?"),
        Document(text="Turn to p.13 to read about J.R.R. Tolkien pinging google.com in 3.4 seconds")
    ]
)


exec = Executor.from_hub("jinahub://SpacySentencizer")


exec.segment(docs, parameters={})


for doc in docs:
    for chunk in doc.chunks:
        print(chunk.text)


    print("---")

现在的结果如下图所示:

db311333e441fef51149014e2401f732.png

将 Executor 添加到 Flow 中:

from docarray import DocumentArray
from jina import Flow


docs = DocumentArray.from_files("data/*.pdf", recursive=True)


flow = (
    Flow()
    .add(uses="jinahub+sandbox://PDFSegmenter", install_requirements=True, name="segmenter")
    .add(uses=ChunkSentencizer, name="chunk_sentencizer")
)


with flow:
  indexed_docs = flow.index(docs)

 3.2 对图像进行归一化处理 

from jina import Executor, requests
import numpy as np


class ImageNormalizer(Executor):
    @requests(on="/index")
    def normalize_chunks(self, docs, **kwargs):
        for doc in docs:
            for chunk in doc.chunks[...]:
                if chunk.blob:
                    chunk.convert_blob_to_image_tensor()


                if hasattr(chunk, "tensor"):
                    if chunk.tensor is not None:
                        chunk.convert_image_tensor_to_uri()
                        chunk.tags["image_datauri"] = chunk.uri
                        chunk.tensor = chunk.tensor.astype(np.uint8)
                        chunk.set_image_tensor_shape((64, 64))
                        chunk.set_image_tensor_normalization()

代码解读:

1-6: 通用 Executor 调用代码。第 5 行规定Executor 只有在调用索引 endpoint 时才能处理 Document。

8: 通过 [ ... ] 启用递归,依次对 chunk 进行处理。

9: 出现 blob 后将其转换为张量,以适应 CLIP 编码器。

12-18: 假设出现张量,我们需要把未处理张量的数据 uri 添加到元数据(即 tags)中,以便于后续检索并在前端展示图像。

为了防止文本块与图像块互相干扰:

from docarray import DocumentArray
from jina import Flow


docs = DocumentArray.from_files("data/*.pdf", recursive=True)


flow = (
    Flow()
    .add(uses="jinahub+sandbox://PDFSegmenter", install_requirements=True, name="segmenter")
    .add(uses=ChunkSentencizer, name="chunk_sentencizer")
    .add(uses=ImageNormalizer, name="image_normalizer")
)


with flow:
  indexed_docs = flow.index(docs)

通过上述过程,我们实现了:

* 构建一个全新的 PDF

* 将 PDF 分成文本和图像两部分

* 进一步将文本块分割成句子块

* 对图像进行归一化处理

效果如下图所示:

81e00bf966daded09385c89d715ccb7d.png

如图所示,文本块和图片块并没有处在同一个 level

通过一个新的 Executor--ChunkMerger,将文本块和图像块放在同一个 level:

from jina import Executor, requests
import numpy as np


class ImageNormalizer(Executor):
    @requests(on="/index")
    def normalize_chunks(self, docs, **kwargs):
        ...
        
        
class ChunkMerger(Executor):
    @requests(on="/index")
    def merge_chunks(self, docs, **kwargs):
        for doc in docs:  # level 0 document
            for chunk in doc.chunks:
                if doc.text:
                    docs.pop(chunk.id)
            doc.chunks = doc.chunks[...]

完成分句 (sentencize) 后,将其直接放到 Flow 中,代码如下:

from docarray import DocumentArray
from executors import ChunkSentencizer, ChunkMerger, ImageNormalizer
from jina import Flow


docs = DocumentArray.from_files("data/*.pdf", recursive=True)


flow = (
    Flow()
    .add(uses="jinahub+sandbox://PDFSegmenter", install_requirements=True, name="segmenter")
    .add(uses=ChunkSentencizer, name="chunk_sentencizer")
    .add(uses=ChunkMerger, name="chunk_merger")
    .add(uses=ImageNormalizer, name="image_normalizer")
)


with flow:
  indexed_docs = flow.index(docs)

以上就是本系列教程 Part 1 的全部内容。在 Part 2 中,我们将为 Flow 添加一个编码器,使用 CLIP 将文本和图像编码为向量,从而简化的语义搜索的过程。

欢迎大家关注下方公众号,持续关注本系列教程更新~

a8f68b340c15f8a8ae7020b287454cd4.png

神经搜索、深度学习、推荐系统

教程、Demo、干货分享

扫码备注加入讨论组

更多精彩内容(点击图片阅读)

e200c9baa13a528d28fa78382f15c534.png

a2131272b60f2a98f7b3d0d04278fbfb.png

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建 Jina 搜图,需要遵循以下步骤: 1. 安装 Jina 首先,你需要安装 Jina。你可以通过 pip 安装它: ``` pip install jina ``` 2. 准备数据 接下来,你需要准备一些数据,以便 Jina 可以对其进行搜索。数据可以是图像、文本或任何其他类型的数据。你需要将这些数据存储在一个文件夹中。 3. 编写 Flow 使用 Jina 搜图的核心是创建一个流程(Flow)。流程定义了如何处理和搜索数据。你可以使用 JinaPython API 来定义流程。 例如,要创建一个简单的流程,可以使用以下代码: ```python from jina import Flow f = Flow().add(name='my_encoder', uses='jinahub+docker://MyAwesomeEncoder') ``` 在这个示例中,我们定义了一个流程,它使用名为 `my_encoder` 的编码器,并从 `jinahub` 中下载 Docker 镜像。 4. 运行 Flow 在定义了流程后,你可以使用以下命令运行它: ``` f.run() ``` 这将启动流程,并开始处理和搜索数据。 5. 搜索数据 一旦流程启动,你可以使用 Jina 的客户端 API 来搜索数据。例如,要搜索一个图像,可以使用以下代码: ```python from jina import Client, Document client = Client() image = Document(uri='path/to/image.jpg') response = client.search(inputs=[image]) ``` 在这个示例中,我们定义了一个 Jina 客户端,并搜索了一个名为 `image.jpg` 的图像。 这些是搭建 Jina 搜图的基本步骤。你可以根据自己的需求和数据类型来进一步定制和优化流程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值