AI论文中文翻译
文章平均质量分 90
AI和 机器学习领域的 经典论文翻译,让英语不好的也能够接触经典
肥猫64
精通\中学家教\派发传单\快递送餐\宽带安装\电脑装机\网络维护\应用开发\数据库调优\oracle\dotnet\java\python\hadoop\spark\flink\tensorflow\pytorch\ocr\nlp\模型调参\sci论文精投I
展开
-
OCR系列:主流深度学习OCR文字识别方法对比
● 1 主流深度学习OCR文字识别方法对比(重点试): 文章地址:https://blog.csdn.net/lovebyz/article/details/84959818 1.Tesseract(LSTM) +Densenet (无代码) 2. CTPN+CRNN (中文 、重点试) 代码地址:https://git...原创 2019-03-13 05:48:41 · 3424 阅读 · 0 评论 -
OCR系列:CRNN—基于图像序列识别的端到端可训练神经网络及其在场景文本识别中的应用...
译者按: 作为 OCR的 经典模型之一,CRNN在自然场景的文本识别方面应用很广,各种变体层出不穷。CRNN主要应用在文字识别的本身,属于OCR后端任务(前段是CTPN 文字区域识别) 摘要 基于图像的序列识别一直是计算机视觉中长期存在的研究课题。在本文中,我们研究了场景文本识别的问题,这是基于图像的序列识别中最重要和最具挑战性的任务之一。提...原创 2019-05-29 07:28:20 · 1233 阅读 · 0 评论 -
OCR系列 :fast-RCNN:利用区域提案网络实现实时目标检测
摘要 最先进的目标检测网络依靠区域提出算法来假设目标的位置。SPPnet[1]和Fast R-CNN[2]等研究已经减少了这些检测网络的运行时间,使得区域提出计算成为一个瓶颈。在这项工作中,我们引入了一个区域提出网络(RPN),该网络与检测网络共享全图像的卷积特征,从而使近乎零成本的区域提出成为可能。RPN是一个全卷积网络,可以同时在每个位置预测目标边界和...原创 2019-01-01 23:45:49 · 391 阅读 · 0 评论 -
OCR系列:CTPN 利用连接文本提案网络来检测自然图像中的文本
译者按: 用于OCR领域的经典网络,CTPN是目前流传最广、影响最大的开源文本检测模型,可以检测水平或微斜的文本行。文本行可以被看成一个字符sequence,而不是一般物体检测中单个独立的目标。同一文本行上各个字符图像间可以互为上下文,在训练阶段让检测模型学习图像中蕴含的这种上下文统计规律,可以使得预测阶段有效提升文本块预测准确率。CTPN模型的图像预测流程中,前端...原创 2019-03-07 14:52:11 · 1140 阅读 · 0 评论 -
CNN系列:VGG:网络在图像识别的应用
译者按:VGG是 ALEXNet 后又以改进的一个网络,大家要注意这个网络结构和网络区别 作者:Karen Simonyan,Andrew Zisserman 摘要 在这项工作中,我们研究了卷积网络深度在大规模的图像识别环境下对准确性的影响。我们的主要贡献是使用非常小的(3×3)卷积滤波器架构对网络深度的增加进行了全面评估,这表明...原创 2019-03-31 23:11:58 · 1675 阅读 · 0 评论 -
CNN系列:Inception-v3:重新思考计算机视觉的初始架构(Rethinking the Inception Architecture for Computer Vision)...
原论文地址:https://arxiv.org/abs/1512.00567· 译者按: Inception 网络是 CNN 分类器发展史上一个重要的里程碑。在 Inception 出现之前,大部分流行 CNN 仅仅是把卷积层堆叠得越来越多,使网络越来越深,以此希望能够得到更好的性能。第一次提出 Inception 结构的 GoogLeNet...原创 2019-05-05 13:30:00 · 697 阅读 · 0 评论 -
CNN系列:ResNet:图像识别的深度残差学习(Deep Residual Learning for Image Recognition)...
译者按: 关于图像识别CNN 是基础,VGG和 GoogleNet 是增强版CNN,继VGG和GoogLeNet在网络深度上进行了进一步的尝试,取得了比较大的进展-网络越深效果也越好-,但也遇到了问题: 网络越深,越容易出现梯度消失,导致模型训练难度变大,出现“退化”现象,出现退化的问题,主要是由于网络深度的增加,带来的在网络训练的时候,梯度...原创 2018-09-01 18:08:11 · 2233 阅读 · 0 评论 -
CNN系列:GoogleNet:深入卷积架构(Going Deeper with Convolutions)
译者按: GoogLeNet是2014年Christian Szegedy提出的一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。inception的提出则从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更...原创 2018-07-30 07:12:11 · 223 阅读 · 0 评论 -
CNN系列:AlexNet-用深度卷积神经网络实现
译者按: 祖师爷Hinton 带领的小组经典之作,深度学习开山祖师 Hinton率领的谷歌团队多次夺冠 ,主力成员为 hinton 在多伦多大学的学生 Alex Krizhevsky ,Ilya Sutskever , 因此他们的解决方案也叫alexnet , 这篇文章是hinton大神团队的代表性之作,CNN (卷积神经网络)已经成为图像识别处理的标准,...原创 2018-07-01 06:39:10 · 1268 阅读 · 0 评论 -
EM最大期望算法(Expectation Maximization)
译者按:本文来自于吴恩达的斯坦福经典课程CS229 的课程笔记,也是国内大部分EM算法文章的参考源,本文详细介绍了EM的推导过程,要深入了解EM算法不可不读。期望最大化(Expectation Maximization) 算法被称为机器学习十大算法之一,最初是由Ceppellini等人1950 年在讨论基因频率的估计的时候提出的。后来又被Hartley 和Baum 等...原创 2018-06-01 06:26:56 · 710 阅读 · 0 评论 -
辨别式与生成式分类器的区别:逻辑回归和朴素贝叶斯的比较
译者按: 吴恩达和迈克尔乔丹的经典合作之一,是当年吴恩达在乔丹门下读博时发表的,分类问题是机器学习最典型的问题,而朴素贝叶斯和逻辑回归又是最基础最常用的分类算法,两位大神对此进行了深入精到的分析,对机器学习和AI的爱好者来说不可错过 作者: Andrew Y. Ng(吴恩达) , Michael I. Jordan(迈克尔一乔丹) ...原创 2018-05-01 07:54:39 · 1338 阅读 · 0 评论 -
理解训练深层前馈神经网络的难度(Undetanding the difficulty of training deep feedforward neural networks )...
译者按:大神bengio 的经典论文之一,不多说 作者:Xavier Glorot Yoshua Bengio 加拿大魁北克 蒙特利尔大学 摘要:在2006年以前,似乎深度多层的神经网络没有被成功训练过。自那以后少数几种算法显示成功地训练了它们,实验结果表明了深度多层的架构的优越性。所有这...原创 2018-04-01 02:45:18 · 801 阅读 · 0 评论 -
OCR系列:基于图像序列识别的端到端可训练神经网络及其在场景文本识别中的应用
译者按: 场景文字检测这一问题在15~20年前就出现了相关的研究工作,它与传统的文本文字检测的重要区别是需要将照片或视频中的文字识别出来。 其主要分为两个步骤: 对照片中存在文字的区域进行定位(Text Detection),即找到单词或文本行(word/linelevel)的边界框(bounding box); 然后对...原创 2018-10-01 11:32:22 · 1818 阅读 · 0 评论 -
NLP系列:Word2Vec原始论文:Efficient Estimation of Word Representations in Vector Space
译者按: 2013年,Google开源了一款用于词向量计算的工具——word2vec,引起了工业界和学术界的关注。首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练;其次,该工具得到的训练结果——词向量(word embedding),可以很好地度量词与词之间的相似性。随着深度学习(Deep Learning)在自然语言处理中应用的...原创 2019-06-30 18:35:40 · 1294 阅读 · 0 评论