计算机视觉
文章平均质量分 97
龙心尘
资深深度学习研发工程师,多年深度学习自然语言处理、推荐算法经验,ERNIE系列项目开发者之一,知名AI类公众号深度学习专栏主编。专注于算法研发与优化,负责过基于海量数据的文本相似度、长句预测、文本审核、评论观点抽取、个性化推荐、智能营销、智能画像等项目。欢迎联系和交流。
展开
-
深度学习与计算机视觉(11)_基于deep learning的快速图像检索系统
本系统是基于CVPR2015的论文《Deep Learning of Binary Hash Codes for Fast Image Retrieval》实现的海量数据下的基于内容图片检索系统,250w图片下,对于给定图片,检索top 1000相似时间约为1s,其基本背景和原理会在下文提到。原创 2016-03-16 11:34:06 · 11150 阅读 · 5 评论 -
深度学习与计算机视觉系列(2)_图像分类与KNN
图像识别看似很直接。但实际上包含很多挑战,我们人类可是经过数亿年的进化才获得如此精准的视觉理解力的。图像识别可能有下面这样一些困难:视角不同,每个事物旋转或者侧视最后的构图都完全不同尺寸大小不统一,相同内容的图片也可大可小变形,正所谓『千姿万态』,但都可能是一个东西光影等干扰/幻象背景干扰同类内的差异(比如椅子有靠椅/吧椅/餐椅/躺椅…)原创 2015-11-21 11:59:21 · 4877 阅读 · 1 评论 -
深度学习与计算机视觉系列(3)_线性SVM与SoftMax分类器
这个部分我们介绍一类新的分类器方法,而对其的改进和启发也能帮助我们自然而然地过渡到深度学习中的卷积神经网。有两个重要的概念:得分函数/score function:将原始数据映射到每个类的打分的函数损失函数/loss function:用于量化模型预测结果和实际结果之间吻合度的函数在我们得到损失函数之后,我们就将问题转化成为一个最优化的问题,目标是得到让我们的损失函数取值最小的一组参数。原创 2015-11-23 22:16:56 · 5418 阅读 · 1 评论 -
深度学习与计算机视觉系列(4)_最优化与随机梯度下降
在取到合适的参数W的情况下,我们根据原始像素计算得到的预测结果和实际结果吻合度非常高,这时候损失函数得到的值就很小。这节我们就讲讲,怎么得到这个合适的参数W,使得损失函数取值最小化。也就是最优化的过程。原创 2015-12-04 19:40:33 · 18396 阅读 · 0 评论 -
深度学习与计算机视觉系列(5)_反向传播与它的直观理解
一般直观上理解反向传播算法就是求导的一个链式法则而已。但是偏偏理解这部分和其中的细节对于神经网络的设计和调整优化又是有用的,所以硬着头皮写写吧。原创 2015-12-16 08:31:15 · 19453 阅读 · 3 评论 -
深度学习与计算机视觉系列(6)_神经网络结构与神经元激励函数
那我们咋选用神经元/激励函数呢?一般说来,用的最多的依旧是ReLU,但是我们确实得小心设定学习率,同时在训练过程中,还得时不时看看神经元此时的状态(是否还『活着』)。当然,如果你非常担心神经元训练过程中挂掉,你可以试试Leaky ReLU和Maxout。额,少用sigmoid老古董吧,有兴趣倒是可以试试tanh,不过话说回来,通常状况下,它的效果不如ReLU/Maxout。原创 2016-01-02 13:56:47 · 14907 阅读 · 0 评论 -
深度学习与计算机视觉系列(7)_神经网络数据预处理,正则化与损失函数
上一节我们讲完了各种激励函数的优缺点和选择,以及网络的大小以及正则化对神经网络的影响。这一节我们讲一讲输入数据以及损失函数设定的一些事情。原创 2016-01-03 16:52:14 · 15514 阅读 · 2 评论 -
深度学习与计算机视觉系列(8)_神经网络训练与注意点
在前一节当中我们讨论了神经网络静态的部分:包括神经网络结构、神经元类型、数据部分、损失函数部分等。这个部分我们集中讲讲动态的部分,主要是训练的事情,集中在实际工程实践训练过程中要注意的一些点,如何找到最合适的参数。原创 2016-01-15 10:11:01 · 5409 阅读 · 0 评论 -
深度学习与计算机视觉系列(9)_串一串神经网络之动手实现小例子
前面8小节,算从神经网络的结构、简单原理、数据准备与处理、神经元选择、损失函数选择等方面把神经网络过了一遍。这个部分我们打算把知识点串一串,动手实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。为了循序渐进,我们打算先实现一个简单的线性分类器,然后再拓展到非线性的2层神经网络。我们可以看到简单的实现,能够有分隔程度远高于线性分类器的效果。原创 2016-01-15 10:12:39 · 5633 阅读 · 4 评论 -
深度学习与计算机视觉系列(10)_细说卷积神经网络
我们来说说卷积神经网络的特殊之处,首先卷积神经网络一般假定输入就是图片数据,也正是因为输入是图片数据,我们可以利用它的像素结构特性,去做一些假设来简化神经网络的训练复杂度(减少训练参数个数)。原创 2016-01-19 22:31:26 · 8688 阅读 · 6 评论 -
深度学习与计算机视觉系列(1)_基础介绍
计算机视觉/computer vision是一个火了N年的topic。持续化升温的原因也非常简单:在搜索/影像内容理解/医学应用/地图识别等等领域应用太多,大家都有一个愿景『让计算机能够像人一样去”看”一张图片,甚至”读懂”一张图片』。原创 2015-11-21 11:56:38 · 7199 阅读 · 1 评论