图像OCR技术实践,让前端也能轻松上手图像识别

嗨,大家好,我是徐小夕。之前和大家分享了很多可视化零代码前端工程化的最佳实践,最近也在迭代可视化文档知识引擎Nocode/WEP, 刚好在设计一个图像识别的功能,涉及到了图像OCR技术, 接下来就和大家分享一下前端如何低成本上手图像识别。

f2fd3e7d36027544d0454363fe98a49b.png

案例演示

首先和大家演示一下实现的效果,我们的最终目标是基于一张图片,通过技术的手段自动提取图片的信息,并展示到文档中,提高文档编写的效率。

fd512dca9ae8aaa38aa770c2650d5983.gif

由上图可以看到我们成功提取了图片中的文本信息,通过这种方式我们可以更高效地对文档进行创作。

9e7db44403112b588d733c47e345f8ac.png

什么是图像OCR技术

46feda3df62969b820dee4d289b53858.png

OCR(Optical Character Recognition,光学字符识别)是指提取图像中的文字信息,下面介绍一些常见的图片 OCR 技术方案:

  • 基于规则的 OCR:使用预定义的规则和模板来识别特定类型的文本,适用于结构化的文档,如表格、票据等;

  • 基于机器学习的 OCR:通过训练模型来识别不同字体、大小、颜色等特征的文字,适用于非结构化的文本,如照片、手写字等;

  • two-stage 方法:文字检测+文字识别,分别由检测网络和识别网络来完成,是目前主流的 OCR 方法,效果较好;

  • 端到端方法:直接输出识别后的文本,由一个大网络来完成,但该方法仍存在特征共享、模型训练等问题。

上面这些技术方案的优缺点和应用场景我简单和大家介绍如下:

  • 基于规则的 OCR

    • 优点:对于特定类型的文本,如表格、票据等,识别准确率较高。

    • 缺点:规则和模板的定义需要大量的人工工作,对于复杂的文档结构和字体变化的适应性较差。

    • 应用场景:适用于结构化文档的识别,如表格、票据、身份证等。

  • 基于机器学习的 OCR

    • 优点:可以自动学习文字的特征,对于不同字体、大小、颜色等的适应性较好。

    • 缺点:需要大量的训练数据,对于生僻字和特殊字体的识别准确率可能较低。

    • 应用场景:适用于非结构化文本的识别,如图像、照片、手写字等。

  • two-stage 方法

    • 优点:将文字检测和识别分开处理,提高了识别准确率和灵活性。

    • 缺点:需要两个网络进行处理,计算量较大,速度较慢。

    • 应用场景:适用于对识别准确率要求较高的场景,如文档数字化、自动化表单填写等。

  • 端到端方法

    • 优点:将文字检测和识别统一在一个网络中进行处理,减少了计算量和处理时间。

    • 缺点:特征共享和模型训练等问题仍需要进一步解决,对于复杂场景的适应性较差。

    • 应用场景:适用于对速度要求较高的场景,如实时翻译、图片搜索等。

在实际应用中,我们需要根据具体需求和场景选择合适的 OCR 技术方案。

基于图像OCR的开源方案分享

f5f88c68a89873155549bd56e1258705.png

那对于前端而言,我们怎么能使用这些 OCR 技术呢?我在做了大量研究和查找之后,发现了几款不错的OCR开源项目,可以帮助我们轻松在自己的应用中实现OCR能力:

  • Tesseract:一款由 HP 实验室开发、由 Google 维护的开源 OCR 引擎,支持多语言和多平台。

  • Tesseract.js:Tesseract 的 JavaScript 版本,支持一百多种语言,可使用 npm 安装或在页面中直接引用 js。

  • PaddleOCR:飞桨首次开源的文字识别模型套件,支持中英文识别,支持倾斜、竖排等多种方向文字识别,支持 GPU、CPU 预测。

  • CnOCR:Python 3 下的文字识别工具包,支持简体中文、繁体中文(部分模型)、英文和数字的常见字符识别,自带 20 多个训练好的识别模型,适用于不同应用场景。

  • chineseocr_lite:超轻量级中文 OCR,支持竖排文字识别,支持 ncnn、mnn、tnn 推理,模型大小仅 4.7M。

这些开源方案都有各自的特点和优势,可以根据具体需求和应用场景选择适合的方案。在使用这些开源方案时,我们仍然需要考虑以下因素:

  • 识别精度:不同的开源方案在识别精度上可能存在差异,可以根据对识别结果准确性的要求进行选择。

  • 语言支持:如果需要识别特定语言的文字,需要确保所选方案支持该语言。

  • 性能和效率:考虑方案的执行速度和资源消耗,特别是在处理大量图片或对实时性要求较高的情况下。

  • 可扩展性:如果有进一步开发和定制的需求,选择具有良好可扩展性的方案。

  • 社区和文档:活跃的社区和完善的文档可以提供更好的支持和帮助。

这里我写一个前端实现的案例,和大家分享一下具体用法。

1c2d1fe8f8b1bf1a6db08592c8d3c4e6.png

首先我们需要安装tesseract.js:

yarn add tesseract.js

其次来看看我写的一个业务代码:

const fileData = await req.formData();
const searchParams = req.nextUrl.searchParams;
const lang = searchParams.get('lang') || 'eng';
const file: File | null = fileData.get('file') as unknown as File

if (!file) {
    return Response.json({ success: 0 })
}

const bytes = await file.arrayBuffer()
const buffer = Buffer.from(bytes)
const worker = await createWorker(lang, 1, {
    // corePath: '',
    workerPath: "",  // 定义work路径
    langPath: "",  // 定义语言包路径
    gzip: false
});
const ret = await worker.recognize(buffer);
// console.log(ret.data.text);
await worker.terminate();
return Response.json({ data: { output: ret.data.text } })

我们在上面代码里可以看到我们需要先把文件转化为buffer,再利用worker ,来提取图像信息。代码由于我使用的是nextjs,对nodejs开发比较友好,当然大家也可以用其他框架来实现。

目前这个功能我已经实现到了 Nocode/WEP 文档知识库中,大家可以体验参考一下:

807253e1210a54e1864801fef24c2e45.png

同时为了提高识别度,我也看到一些可行的方案,这里和大家分享一下:

  1. 数据增强:通过对图像进行旋转、缩放、翻转等操作,增加数据的多样性。

  2. 优化训练:调整训练参数,如学习率、迭代次数等,以获得更好的模型性能。

  3. 使用高质量图像:确保输入的图像清晰、分辨率高,减少噪声和干扰。

  4. 字符分割:将图像中的字符准确分割,有助于提高识别精度。

  5. 语言模型融合:结合语言模型来提高对文本的理解和纠正错误。

  6. 模型融合:尝试融合多个不同的 OCR 模型,以综合它们的优势。

  7. 人工标注:对一些困难样本进行人工标注,以改进模型学习。

  8. 超参数调优:对模型的超参数进行细致的调整和优化。

实战分享

e3913ffd5dab1d122b97cbbe4e0921fe.png

a9257449f74387cbfe2d69fb7e8c55ed.png

最后

后面我会继续和大家分享可视化和文档引擎相关的技术实践,大家感兴趣也欢迎在留言区评论反馈~

d57b32117e167c7afc1d4cc9ef811c15.png

往期精彩

  • 12
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值