Transformer与OCR

由于OCR是序列到序列,NMT或者通用的任务Transformer也是Sequence 2 Sequence。而OCR识别经典论文是CRNN,其中是CNN+RNN+softmax,这个RNN可以试试LSTM,GRU,或者其他变种。也可以是机器翻译的端到端的序列识别。
本文试图分析Transformer与OCR任务,试图将Transformer替换CRNN中的LSTM

N-Grams

N-grams refer to the process of combining the nearby words together for representation purposes where N represents the number of words to be combined together.

  • For eg, consider a sentence, “Natural Language Processing is essential to Computer Science.”
  • A 1-gram or unigram model will tokenize the sentence into one word combinations and thus the output will be “Natural, Language, Processing, is, essential, to, Computer, Science”
  • A bigram model on the other hand will tokenize it into combination of 2 words each and the output will be “Natural Language, Language Processing, Processing is, is essential, essential to, to Computer, Computer Science”
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CNN和transformer是两种不同的神经网络模型。CNN(卷积神经网络)是一种广泛应用于图像处理和计算机视觉任务的神经网络模型。它通过卷积层和池化层来逐步提取图像的特征,并通过全连接层进行分类或回归。CNN在处理图像数据上具有很好的效果,因为它能够捕捉图像中的局部和空间关系。 而transformer是一种用于自然语言处理任务的神经网络模型。它通过自注意力机制来处理序列数据,能够更好地捕捉序列中的长距离依赖关系。transformer在机器翻译、文本摘要和语言生成等任务上取得了很大的成功。 最近的研究工作将transformer的自注意力机制融入了CNN的背骨结构中,而不是简单地叠加在网络之上。这种方法在保留CNN对图像特征提取能力的同时,也能够利用transformer的自注意力机制进行更好的特征表示和语义理解。类似的工作还包括DETR,在使用CNN提取图像特征后,接着使用transformer的编码器和解码器来完成目标检测等任务。通过结合CNN和transformer的优势,这些方法在图像处理和计算机视觉任务中取得了很好的效果。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [CNN+Transformer算法总结(持续更新)](https://blog.csdn.net/qq_45752541/article/details/119799435)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【深度学习】CNN+Transformer汇总](https://blog.csdn.net/zhe470719/article/details/124196490)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值