python判断汉字偏胖_OCR 汉字识别学习笔记2019-01-02

一、git上star比较多的项目

*好 10.psenet的实现,最新的,pytorch: whai362/PSENet

14. kuangshi research in text detection and recognition using PyTorch 1.2. Megvii-CSG/MegReader

15. a PyToch implementation of "Real-time Scene Text Detection with Differentiable Binarization". MhLiao/DB

16. 论文集Scene Text Detection and Recognition: must-read papers Jyouhou/SceneTextPapers

17.ICDAR2019 ArT 的第一名,清华:this is the code repository for our algorithm that ranked No.1 on Jyouhou/ICDAR2019-ArT-Recognition-Alchemy

18.ICDAR2019 ReCTS脱机单字识别任务部分代码,TF代码,复现改进了alexnet resnet等网络,进行了图像增强、分割,比赛结果排名第11。 HuiyanWen/ICDAR2019-ReCTS

19.Faster R-CNN and Mask R-CNN in PyTorch 1.0 facebookresearch/maskrcnn-benchmark

二、 数据集

共约364万张图片,按照99:1划分成训练集和验证集,数据利用中文语料库(新闻 + 文言文),通过字体、大小、灰度、模糊、透视、拉伸等变化随机生成.包含汉字、英文字母、数字和标点共5990个字符,每个样本固定10个字符,字符随机截取自语料库中的句子.图片分辨率统一为280x32. 图片解压后放置到train/images目录下,描述文件放到train目录下

训练数据集补充

列举可用于文本检测和识别领域模型训练的一些大型公开数据集, 不涉及仅用于模型fine-tune任务的小型数据集。

Chinese Text in the Wild(CTW): 该数据集包含32285张图像,1018402个中文字符(来自于腾讯街景), 包含平面文本,凸起文本,城市文本,农村文本,低亮度文本,远处文本,部分遮挡文本。图像大小2048*2048,数据集大小为31GB。以(8:1:1)的比例将数据集分为训练集(25887张图像,812872个汉字),测试集(3269张图像,103519个汉字),验证集(3129张图像,103519个汉字)。

文献链接:https://arxiv.org/pdf/1803.00085.pdf

数据集下载地址:https://ctwdataset.github.io/

Reading Chinese Text in the Wild(RCTW-17):该数据集包含12263张图像,训练集8034张,测试集4229张,共11.4GB。大部分图像由手机相机拍摄,含有少量的屏幕截图,图像中包含中文文本与少量英文文本。图像分辨率大小不等。

http://mclab.eic.hust.edu.cn/icdar2017chinese/dataset.html

文献:http://arxiv.org/pdf/1708.09585v2

6.4 RCTW数据集2017

RCTW数据集主要由场景中文文字构成,总共包含了12,034张图片,其中训练集8034张,测试集4000张。比赛分为文字检测和端到端文字识别两部分。MLT数据集由6个文种共9种语言的文字图片构成,共18,00张图片。该比赛包括了文字检测、语种识别以及文字检测加语种识别三个任务。链接:https://zhuanlan.zhihu.com/p/37678860

6.8 我们在2012年发布了MSRA-TD500这个数据集,虽然数据量比较小,但是含有英文和中文两种语言。

三. 知乎上的参考

CTC的方式,CTPN+CRNN 都开源了, 可以了解一下,传统的如果是印刷体的话,应该难度也不大,只是在切割的时候需要一些技巧避免将汉字的偏旁切开。

不同场景下的ocr识别,肯定方法不一样的。对于文档来说,如果排版比较统一,纯文本,没有其他东西的,ctpn效率和效果上会好一些。自然场景的话,现在基于attention的end-to-end模型是比较好用的,比如tensorflow/models感觉比较通用的还是目标检测+识别吧,基本各个场景都适用,只不过目标检测对于长文本,行间距非常小的文本训练起来没那么容易。还有,如果文本存在倾斜的情况,attention-ocr基本没什么影响,用目标检测也有带角度的方法,但ctpn就不太行了。

6. https://blog.csdn.net/lovebyz/article/details/84959818 主流深度学习OCR文字识别方法对比:Tesseract(LSTM)、CTPN+CRNN、Densenet

(一)Tesseract(LSTM)和Densenet

(二)CTPN+CRNN:CHINESE-OCR 和 Tesseract(LSTM) 代码地址:

程程:【领域报告】行人再识别年度进展 |VALSE2018之十 Person ReID(Person Re-identification)

程程:白翔:趣谈“捕文捉字”-- 场景文字检测 | VALSE2017之十 华南理工大学金连文老师研究组提出了一个基于Faster R-CNN的方法,针对文字形状和一般物体形状的区别,对其进行了完善。

程程的主页,多个ocr的内容链接:知乎用户

***11. 好 OCR-从零开始 传统方案,预处理的代码,深度的方案

一般目标检测器(SSD,YOLO 和 DenseBox )为基础,例如 TextBoxes,FCRN 以及 EAST,SegLink等,它们直接预测候选的边界框。

以语义分割为基础,例如PixelLink和FTSN,它们生成分割映射,然后通过后处理生成最终的文本边界框。

视觉领域常规物体检测方法(SSD, YOLO, FasterRCNN等)直接套用于文字检测任务效果并不理想, 主要原因如下:

·相比于常规物体,文字行长度、长宽比例变化范围很大。

·文本行是有方向性的。常规物体边框BBox的四元组描述方式信息量不充足。

·自然场景中某些物体局部图像与字母形状相似,如果不参考图像全局信息将有误报。

·有些艺术字体使用了弯曲的文本行,而手写字体变化模式也很多。

·由于丰富的背景图像干扰,手工设计特征在自然场景文本识别任务中不够鲁棒。

针对上述问题根因,近年来出现了各种基于深度学习的技术解决方案。它们从特征提取、区域建议网络(RPN)、多目标协同训练、Loss改进、非极大值抑制(NMS)、半监督学习等角度对常规物体检测方法进行改造,极大提升了自然场景图像中文本检测的准确率。例如:

·CTPN方案中,用BLSTM模块提取字符所在图像上下文特征,以提高文本块识别精度。

·RRPN等方案中,文本框标注采用BBOX +方向角度值的形式,模型中产生出可旋转的文字区域候选框,并在边框回归计算过程中找到待测文本行的倾斜角度。

·DMPNet等方案中,使用四边形(非矩形)标注文本框,来更紧凑的包围文本区域。

·SegLink将单词切割为更易检测的小文字块,再预测邻近连接将小文字块连成词。

·TextBoxes等方案中,调整了文字区域参考框的长宽比例,并将特征层卷积核调整为长方形,从而更适合检测出细长型的文本行。

·FTSN方案中,作者使用Mask-NMS代替传统BBOX的NMS算法来过滤候选框。

·WordSup方案中,采用半监督学习策略,用单词级标注数据来训练字符级文本检测模型。

19. 文本检测的最新进展 小石头的码疯窝

20. 仅PSENet有代码,曲线文本 燕小花:2019CVPR文本检测综述

各模型在ICDAR2015数据集上的测试结果。

我用了ctpn,效果已经能够接受了。没想到masktextspotter表现这么好。TextBoxes,EAST,CTPN,PixelLink,SegLink,RRPN,R2CNN,RRD,ITN都有开源的。LSPR这篇文章的,是SLPR,我写错了

***22. 好 第一名 ICDAR2019, 有docker: zhang0jhon/AttentionOCR

****25.极好 很好的一个技术博客:aiuai.cn 一个较好的detectron 2的网站

25.1 aiuai.cn/aifram951.html 计算机视觉八大任务全概述

25.2 aiuai.cn/aifram931.html coco等开源数据集

25.3 aiuai.cn/aifram935.html 基于Tesseract的英文文本识别

25.4 aiuai.cn/aifram961.html Git项目-TextBoxes系列文字检测, 基于SSD

25.5 https://aiuai.cn/aifarm897.html 深度学习的7种架构范例及对应的Tensorflow例示

25.6 https://aiuai.cn/aifarm887.html 论文阅读 - Feature Pyramid Networks for Object Detection

***25.7 https://aiuai.cn/aifarm862.html 目标检测算法Faster R-CNN, R-FCN, SSD, FPN, RetinaNet 和 YOLOv3的对比

25.8 https://aiuai.cn/aifarm856.html 目标检测评测指标mAP及计算[译]

25.9 https://aiuai.cn/aifarm854.html COCO 数据集目标检测等相关评测指标

25.10 https://aiuai.cn/aifarm827.html 中国电信使用 TensorFlow 实现人工智能

25.11 https://aiuai.cn/aifarm807.html Python - 图片上显示中文字符

25.12 https://aiuai.cn/aifarm796.html 基于 Keras 实现的图书推荐系统

25.13 https://aiuai.cn/aifarm227.html Github项目 - Mask R-CNN 的 Keras 实现

看到30/52

三、其他竞赛

四 docker安装

lsb_release -a

uname -r

uname -a

下载地址

tgz

https://download.docker.com/linux/static/stable/x86_64/

rpm

https://download.docker.com/linux/centos/7/x86_64/stable/Packages/

安装

上传文件

tar -xvf docker-18.06.1-ce.tgz

cp docker/* /usr/bin/

dockerd &

测试

[root@centos75-1 ~]# docker -v

Docker version 18.06.1-ce, build e68fc7a

参考:

Linux下离线安装Docker

https://www.cnblogs.com/luoSteel/p/10038954.html

linux如何成功地离线安装docker

https://blog.csdn.net/u011681409/article/details/82695087

官方安装文档

https://docs.docker.com/install/linux/docker-ce/binaries/#install-static-binaries

end

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值