Deep Learning
文章平均质量分 73
Trasper1
The future awaits
展开
-
关于解决深度监测和跟踪器训练时hard postive样本不足的问题,三篇CVPR文章有感
还是那个老故事,即如何解决Deep检测跟踪器训练时正样本(尤其在occlusion和deformation情况下的hard positive)不足的问题。这个问题的紧迫性在于这样样本的缺失导致训练所得网络在occlusion、deformation等appearance variation情况下的鲁棒性不足。 传统解决此问题有两个方向的思路:1. 尽可能收集和建立越...原创 2018-08-09 12:06:53 · 582 阅读 · 0 评论 -
关于卷积操作(Convolution)的理解(参数量和运算量计算),以及网络轻量化(MobileNet Inspired Depthwise Separable Conv深度可分离卷积)
深度学习,尤其是深度卷积网络的迅猛发展,使得其在存储和算力奢侈的GPU(多GPU)上的部属趋于成熟。然而,将基于深度CNN的方法有效移植到存储和算力有限的移动设备端(手机、Pad、嵌入式设备等)面临诸多挑战。核心挑战就是如何降低CNN对memory(存储)和FLOPS(算力)的要求,但又保持CNN的性能(相比于其在GPU端的原貌)没有显著衰减。为解决这一核心挑战,我们就需要研究网络轻量化,具体...原创 2019-08-10 18:51:41 · 4790 阅读 · 1 评论 -
关于导数(derivative),偏导数(partial derivative),梯度(gradient)的概念辨析
在研究深度学,尤其时back-propagation算法时,对梯度和偏导的概念有很多涉及。个人数学功底渣渣,通过多处求证,在这里简单回顾梳理一下,以避免混淆模糊,便于不时查阅。首先,导数仅定义在一元函数y = f(x)上,而偏导和梯度是定义在多元函数y = f(x1,x2,x3,..,xn)上;导数和偏导是实数,梯度是一个向量。导数:derivative:有一阶和高阶导数(high ord...原创 2018-12-09 17:20:26 · 6713 阅读 · 1 评论 -
关于focal loss和分类任务中的hard negative(positive)mining
深度学习,数据是关键。在训练一个分类器的时候,对数据的要求是class balance,即不同标签的样本量都要充足且相仿。然而,这个要求在现实应用中往往很难得到保证。下面我以基于检测的单目标跟踪举例分析这个问题。visual object tracking是在一段视频中跟踪一个特定目标。常见的方法有one-stage regression(比如correlation filter tr...原创 2018-12-09 17:09:59 · 3857 阅读 · 0 评论 -
关于神经网络的训练与优化的一些想法。Thoughts about optimization & training in Neural Networks--back propagation & SGD
一个神经网络是一个遵循连接原则级联构成的函数逼近器(function approximation)。这个function将输入x转化成输出y。以image classification为例,x是图片,y是labels。对于一个神经网络的训练,是指通过trail-and-error来获得网络中所有参数w的最优值。当网络中所有参数都取得最优值时,该网络针对某个损失函数可以在给定样本集上得到最低lo...原创 2018-12-05 15:59:28 · 602 阅读 · 0 评论 -
2017 NIPS《Deep Hyperspherical Learning》读后感
本文提出的是一个极其顶层的深度学习概念:Learning with angular information between w and x on Hyperspheres。本着这个精神,作者提出了SphereConve,depend on which SphereNet is established,which is then trained with Angualr Softmax loss。...原创 2018-12-01 21:25:47 · 692 阅读 · 0 评论 -
Tensorflow和PyTorch的浅解
下文简称Tensorflow为TF,PyTorch为PT。TF出自Google之手(2015年),而PT是来自Facebook AI的一个python package(2016)。两者皆是基于Python的深度学习开发平台。其中,TF较早于PT出现,且是最广为使用的平台。然而,近年来PT大有赶超之势。本文浅谈TF和PT的异同。首先,PT是Torch的Python再开发版。Torch本是就是一个基于...原创 2018-11-28 17:37:39 · 800 阅读 · 0 评论 -
CVPR2018 Spotlight 《Decoupled Networks》读后感
首先要明确的最顶层的概念是:CNN是一个visual representation learning的过程,所有的convolutional filters wi是学到的features template,每一个convolutional操作就是一个template matching,通过dot-product这种计算方式来量化滑窗位置的image patch xi与convolutional f...原创 2018-12-01 16:32:18 · 769 阅读 · 0 评论 -
关于神经网络的capacity、regularization、generalization
以一个ANN(MLP,级联的FC网络)为例,每一层的每一个units(neurons)代表着这一层所构建的特征空间中的一维,或者是这一层所能代表类别的某一类别的confidence:(即若ANN中的某一层有3个neuron,后一层有5个neuron,y = W * x + b, 这两层之间的W是一个5*3的矩阵。那么这两层相当于把输入为3 * dim的一个feature map转换成5 * d...原创 2018-09-19 15:31:22 · 1709 阅读 · 0 评论 -
关于输入为graph的CNN:Graph CNN
大千世界,所有可见的数据可分为两类:Euclidean Data & Non-Euclidean Data。目前在Deep Learning的范畴里,CNN和RNN的世界里,广泛应用的images,sentences,waves,等等,都属于Euclidean data。欧式数据,直观理解为具有工整(栅格化的:grid-like)对称性的数据。然而,网络的概念在现实生活中也是普遍存...原创 2018-09-18 18:07:31 · 6896 阅读 · 0 评论 -
CVPR2018读文笔记:VITAL:VIsual Tracking via Adversarial Learning
CVPR2018一共有三篇用Adverarial思想做tracking的文章。VITAL和SINT++不约而同都是处于利用adverarial的概念对缺乏diversity的在线采集正样本进行增强。本文是UC Merced 大神Ming-Hsuan Yang与腾讯的强强联合,推出的一篇性能比肩ECO和MDNet的online trained two-stage T-by-D tracker。本...原创 2018-08-08 19:45:52 · 1699 阅读 · 1 评论 -
CVPR18读文笔记:SINT++:Robust Visual Tracking via Adversarial Postive Instance Generation
CVPR18一共出现了3篇将Adersarial概念应用于tracking,解决正样本弱的问题。VITAL是用了GAN,惊为天人。本文国产,索然性能不是最优,但是VAE+DRL+SINT的集大成之作,还是足够significant。本文主旨:Improve the robustness of visual tracking through the generation of hard pos...原创 2018-08-08 18:58:48 · 2504 阅读 · 0 评论 -
GNN新作《Relational inductive biases,deep learning,and graph networks》读书笔记
当下AI的瓶颈:静观现有AI,尤其是Deep Learning的发展如火如荼,几大热炒的明星模型无非MLP,CNN,和RNN。这些模型更倾向于是对现实世界的representation learning,其最大的问题有二:Combinatorial Generalization (CG):即泛化能力,如何解决利用有限样本学习无限可能的这个本质难点,即如何实现‘infinite use of ...原创 2018-08-07 09:51:30 · 7765 阅读 · 2 评论 -
CVPR17论文有感:A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection
A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection还是那个老故事,即如何解决Deep检测跟踪器训练时正样本(尤其在occlusion和deformation情况下的hard positive)不足的问题。这个问题的紧迫性在于这样样本的缺失导致训练所得网络在occlusion、deformation等a...原创 2018-08-09 17:58:32 · 1245 阅读 · 3 评论 -
续接上文,关于深度可分离卷积与传统卷积的一点思考
关于深度可分离卷积(DSC)与传统卷积间差别的一点点思考,望各位大佬指正。DSC是将Conv对spatial(receptive-field-wise)和semantic(channel-wise)的同时学习给一分为二了。在分开的这两个阶段中,Stage 1. depthwise conv用通道为1的多个“薄”卷积核仅学习各个input通道上的空间特征;Stage 2. pointwise...原创 2019-08-11 10:41:48 · 905 阅读 · 0 评论