OlmOCR,被誉为可在本地部署的顶尖OCR大模型

allenai/olmocr是由Allen人工智能研究所(AI2)开发的一个开源工具包,旨在高效地将PDF和其他文档转换为结构化的纯文本,同时保持自然阅读顺序。

核心技术:
1、使用名为olmOCR-7B-0225-preview的视觉语言模型(VLM),这是基于Qwen2-VL-7B-Instruct训练而成的。
2、该模型经过约25万页多样化PDF内容(包括扫描和基于文本的)的训练,这些内容使用GPT-4o标注并作为olmOCR-mix-0225数据集发布。

 主要功能:
1、高效批量处理:使用SGLang优化推理管道,能以极低的成本处理大量文档。
2、文档锚定:提取每页中显著元素(如文本块和图像)的坐标,并将其与从PDF二进制文件中提取的原始文本一起注入。
3、支持本地和集群使用:可在单机GPU上运行,也支持使用AWS S3进行多节点并行处理。

性能和优势:
1、准确性高:在人工评估中,olmOCR在各种PDF提取技术的ELO评级中排名最高。
2、提升下游任务:使用olmOCR提取的文本训练语言模型,在多个AI基准任务中平均提高了1.3个百分点的准确率。

使用方法:

import torch
import base64
import urllib.request

from io import BytesIO
from PIL import Image
from transformers import AutoProcessor, Qwen2VLForConditionalGeneration

from olmocr.data.renderpdf import render_pdf_to_base64png
from olmocr.prompts import build_finetuning_prompt
from olmocr.prompts.anchor import get_anchor_text

# Initialize the model
model = Qwen2VLForConditionalGeneration.from_pretrained("allenai/olmOCR-7B-0225-preview", torch_dtype=torch.bfloat16).eval()
processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-7B-Instruct")
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)

# Grab a sample PDF
urllib.request.urlretrieve("https://molmo.allenai.org/paper.pdf", "./paper.pdf")

# Render page 1 to an image
image_base64 = render_pdf_to_base64png("./paper.pdf", 1, target_longest_image_dim=1024)

# Build the prompt, using document metadata
anchor_text = get_anchor_text("./paper.pdf", 1, pdf_engine="pdfreport", target_length=4000)
prompt = build_finetuning_prompt(anchor_text)

# Build the full prompt
messages = [
            {
                "role": "user",
                "content": [
                    {"type": "text", "text": prompt},
                    {"type": "image_url", "image_url": {"url": f"data:image/png;base64,{image_base64}"}},
                ],
            }
        ]

# Apply the chat template and processor
text = processor.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
main_image = Image.open(BytesIO(base64.b64decode(image_base64)))

inputs = processor(
    text=[text],
    images=[main_image],
    padding=True,
    return_tensors="pt",
)
inputs = {key: value.to(device) for (key, value) in inputs.items()}


# Generate the output
output = model.generate(
            **inputs,
            temperature=0.8,
            max_new_tokens=50,
            num_return_sequences=1,
            do_sample=True,
        )

# Decode the output
prompt_length = inputs["input_ids"].shape[1]
new_tokens = output[:, prompt_length:]
text_output = processor.tokenizer.batch_decode(
    new_tokens, skip_special_tokens=True
)

print(text_output)
# ['{"primary_language":"en","is_rotation_valid":true,"rotation_correction":0,"is_table":false,"is_diagram":false,"natural_text":"Molmo and PixMo:\\nOpen Weights and Open Data\\nfor State-of-the']

识别效果:

总结:

支持结构化精准提取复杂PDF文件内容!完美识别中英文文档、模糊扫描件与复杂表格!本地部署与实际测试全过程!医疗法律行业必备!轻松应对企业级PDF批量转换需求!

### olmOCR Deployment Guide #### 使用 Operator Lifecycle Manager (OLM) 部署 OCR 应用程序 Operator Lifecycle Manager 是 Kubernetes 上用于管理和操作应用程序的一种方法。对于部署 OLMOCR,通常涉及以下几个方面: - **安装 OLM**: 如果集群上还没有安装 OLM,则需要先通过官方文档指导完成其安装过程[^1]。 - **准备自定义资源定义(CRD)**: 对于特定的应用程序如 OCR, 可能会存在对应的 CRD 文件来描述该应用特有的配置项。 - **创建 Namespace 和 ServiceAccount**: 为了隔离不同项目的运行环境以及权限管理,建议为 OCR 创建独立的名字空间和服务账户。 - **部署 Operator**: 获取适用于 OCR 的 Operator 并将其部署至上述命名空间中。这一步骤可以通过 YAML 文件或者 Helm Chart 来实现。 - **实例化 Application**: 利用之前提到过的 CRD 定义,在目标名字空间下创建具体的 OCR 实例对象,从而触发 Operator 自动化地拉取镜像并启动 Pod 进行服务提供。 ```yaml apiVersion: operators.coreos.com/v1alpha2 kind: Subscription metadata: name: ocr-operator-subscription spec: channel: stable installPlanApproval: Automatic name: ocr-operator source: community-operators sourceNamespace: openshift-marketplace --- apiVersion: apps.openocr.io/v1beta1 kind: OpenOcrInstance metadata: name: example-openocr-instance spec: replicas: 3 image: registry.example.com/openocr:v0.1.0 ``` 当遇到类似 `kubectl rollout undo` 或者其他命令执行失败的情况时,可以尝试使用 `kubectl describe deployments <deployment-name>` 查看更详细的错误日志以便排查问题所在[^2]。如果是在创建 Deployment 期间遇到了类似于 `"Deployment in version "v1" cannot be handled"` 的错误提示,则可能是由于 API 版本不兼容或者是 Yaml 文件格式存在问题所引起的,此时应仔细核对使用的 API 版本是否正确无误,并确保 yaml 文件语法正确[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱吃饼干的熊猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值