深度学习
文章平均质量分 62
Yingying_code
这个作者很懒,什么都没留下…
展开
-
CVPR 2016论文快讯:目标检测领域的新进展
转载自:目标检测领域的新进展-孔涛前言 2016年的CVPR会议目标检测(在这里讨论的是2D的目标检测,如图1所示)的方法主要是基于卷积神经网络的框架,代表性的工作有ResNet[1](Kaiming He等)、YOLO[5](Joseph Redmon等)、LocNet[7](Spyros Gidaris等)、HyperNet[3](Tao Kong等)、ION[2](Sean转载 2016-08-24 15:04:24 · 1634 阅读 · 0 评论 -
Active learning 总结
Active learning by querying informative andrepresentative examplesPAMI 2014本文主旨:将优化问题转换为在每一轮中选择的样本使得所有的样本损失最小,包括已标记样本和未标记样本。Informative and representative :Informative: 位于分类面边缘上的数据,比如说DNN pape原创 2016-09-02 09:30:27 · 4839 阅读 · 0 评论 -
各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)
转载自:优化方法比较前言这里讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小。本文以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。SGDSGD指stochastic gradient descent,即随机梯度下降。是梯度下降的batch版本。对于训练数据集,我们首先将其分成n个batch,每个batch包含m个样本。我们转载 2016-09-06 15:23:25 · 440 阅读 · 0 评论 -
多任务学习代码
转载自:多任务学习代码Convex Multi-task Feature Learning 是一篇比较经典的文章,代码点击这里可以下载。还有一篇是Multi-Task Feature Learning Via Efficient l2-1 NormMinimization, 点击这里可以下载。这篇文章的最后一位作者就是JiePing Ye, 是LDA的大牛,2DLDA和GLDA就是他提转载 2016-09-06 16:17:55 · 2839 阅读 · 2 评论 -
Keras 更新指令
pip install git+git://github.com/fchollet/keras.git --upgrade --no-deps原创 2016-12-06 16:31:46 · 8782 阅读 · 1 评论 -
Where to apply dropout in recurrent neural networks for handwriting recognition?
Bluche T, Kermorvant C, Louradour J. Where to apply dropout in recurrent neural networks for handwriting recognition?[C]// 2015 13th International Conference on Document Analysis and Recognition (IC原创 2016-12-08 11:58:04 · 381 阅读 · 0 评论 -
Recurrent Neural Networks regularization
Zaremba W, Sutskever I, Vinyals O. Recurrent Neural Network Regularization[J]. Eprint Arxiv, 2014.不破坏recurrent connections, 在不同层之间加入dropout。在四种情景下进行实验:language modeling, speech recognition, ma原创 2016-12-08 14:59:17 · 700 阅读 · 0 评论 -
A convolutional Neural Network for Modelling Sentences
2014 牛津大学提出了一种新的CNN架构,可处理不同长度的时间序列,提出k-max pooling步骤:将整个句子进行编码,获得d*s的矩阵,对于每行进行一维卷积,然后取出前k大的数值作为特征序列,保留了原始值的相对位置,但是省略了具体位置信息。最顶层时,将相邻两row相加(folding),实现不同row之间信息共享。实验部分:用在语义分原创 2016-12-23 15:43:26 · 1520 阅读 · 0 评论 -
Paper tp read
Link prediction in social network Jon Kleinberg原创 2016-12-19 10:48:02 · 243 阅读 · 0 评论 -
RNN资源博客 Recurrent Neural Network的经典论文、代码、课件、博士论文和应用汇总
转载自:RNN资源博客字数1701 阅读5199 评论2 喜欢4Awesome Recurrent Neural NetworksA curated list of resources dedicated to recurrent neural networks (closely related todeep learning).Maintainers -Jiwon原创 2016-12-19 13:55:16 · 5097 阅读 · 0 评论 -
Embedding label structures for fine-grained features representation
Two contributions1. jointly optimize the classification loss(softmax) and the similarity loss(triplet) om CNN, which can generate both categorization resultsand discriminative feature representat原创 2016-08-22 14:55:05 · 932 阅读 · 1 评论 -
Discriminative unsupervised feature learning with convolutional neural networks
NIPS2014思路:将unlabeled 图像进行旋转、平移、增强等操作,组成不同的数据集合(同一图像生成的图像为同一数据集合)。利用CNN 将不同数据集合区分开。目标:区分不同图像,保证平移等变换的鲁棒性。网络结构:small: two convolutional layers with 64 filters each followed by a fully conne原创 2016-08-25 14:53:46 · 2348 阅读 · 0 评论 -
Facial landmark detection by deep multi-task learning
Main task: facial landmark detectionAuxiliary tasks: head pose estimation, gender classification, age estimation, facial expression recognition, facial attribute inferenceChallenges:1. different原创 2016-08-22 14:53:30 · 606 阅读 · 0 评论 -
多任务深度学习
阅读材料原文链接多任务的信息还可以从不同层进行判断,例如衣服颜色信息可以从低层进行判断,而穿衣风格的信息要从高层进行判断待阅读论文Multi-task Learning(1997)Attributes for Improved Attributes: A Multi-Task Network for Attribute Classificatio原创 2016-08-22 10:31:38 · 1687 阅读 · 0 评论 -
Unsupervised template learning for fine-grained object recognition
Shulin Yang, Liefeng Bo, Jue Wang, Linda ShapiroWashington UTwo steps:1) aligning image regions that contain the same object part2) extracting image features within the aligned image regions原创 2016-08-04 16:52:08 · 401 阅读 · 0 评论 -
Are sparse representations really relevant for image classification?
Roberto Rigamonti, Matthew A.Brown, Vincent LepetitCVLab, EPFL原创 2016-08-03 17:01:57 · 373 阅读 · 0 评论 -
visualizing higher-layer featrues of a deep network
文章主题:给出了三种deep network 的特征可视化方法,两种为作者最新提出:activation maximization and sampling from a unit一种方法前人已经提出:linear combination technique.三种方法阐述:activation maximization利用梯度上升法,知道网络weight后求解使得使原创 2016-08-03 14:25:48 · 526 阅读 · 0 评论 -
Learning hierarchical representations for face verification with convolutional deep belief networks
convolutional deep belief networksself - taught learning random filters3.1.1contrastive divergence: 对比分歧loglikelihood of training datasparse regularization RBM 隐层单元被当做下一层的输入stac原创 2016-07-29 13:58:27 · 629 阅读 · 0 评论 -
RNN 调参经验
作者:萧瑟链接:https://www.zhihu.com/question/41631631/answer/94816420来源:知乎著作权归作者所有,转载请联系作者获得授权。调了快1年的rnn, 深刻的感受到,深度学习是一门实验科学,下面是一些炼丹心得. 后面会不断补充. 有问题的地方,也请大家指正.参数初始化,下面几种方式,随便选一个,结果基本都差不多.转载 2016-08-26 09:31:46 · 10337 阅读 · 3 评论 -
多任务深度学习代码
转载自:多任务深度学习基于Caffe实现多任务学习的小样例本节在目前广泛使用的深度学习开源框架Caffe的基础上实现多任务深度学习算法所需的多维标签输入。默认的,Caffe中的Data层只支持单维标签,为了支持多维标签,首先修改Caffe中的convert_imageset.cpp以支持多标签:这样我们就有了多任务的深度学习的基础部分数据输入。为了向上兼容Caffe框架,本文摒弃了部分转载 2016-08-29 11:09:56 · 4454 阅读 · 2 评论 -
Active learning literature Survey
Three main active learning scenarios原创 2016-08-29 11:17:37 · 1127 阅读 · 0 评论 -
Active learning by querying informative and representative examples
主题:QUIRE,基于active-learning的最小-最大原则,实现信息量大而具有代表性的数据筛选。Informativeness: measures the ability of an instance in reducing the uncertainty of a statistical model.忽视了数据间的潜在结构分布。Representativeness: meas原创 2016-08-30 13:51:44 · 784 阅读 · 2 评论 -
To do list
Attention ModelGenerative model原创 2017-01-05 16:17:49 · 344 阅读 · 0 评论