深度学习
文章平均质量分 71
VictorLeeLk
我是世界的某个BUG
展开
-
神经网络end to end的意思
来源:知乎著作权归作者所有。讨论:张旭———————————>端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征,这一点在图像问题上尤为突出,因为图像像素数太多,数据维度高,会产生维度灾难,所以原来一个思路是手工提取图像的一些关键特征,这实际就是就一个降维的过程。那么问题来了,特征怎么提?特征提取的好坏异常关键,甚至比学习算法还重要,举转载 2017-01-09 15:46:03 · 1482 阅读 · 0 评论 -
理解dropout
理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-b转载 2017-08-08 15:22:12 · 668 阅读 · 0 评论 -
深入浅出——网络模型中Inception的作用与结构全解析
一 论文下载 本文涉及到的网络模型的相关论文以及下载地址: [v1] Going Deeper with Convolutions, 6.67% test error http://arxiv.org/abs/1409.4842[v2] Batch Normalization: Accelerating Deep Network Training by Reduci转载 2017-08-08 15:33:02 · 1577 阅读 · 0 评论 -
Deep Learning-TensorFlow (13) CNN卷积神经网络_ GoogLeNet 之 Inception(V1-V4)
环境:Win8.1 TensorFlow1.0.1软件:Anaconda3 (集成Python3及开发环境)TensorFlow安装:pip install tensorflow (CPU版) pip install tensorflow-gpu (GPU版)TFLearn安装:pip install tflearn参考:1. Inception转载 2017-08-08 15:58:12 · 658 阅读 · 0 评论 -
增强学习、增量学习、迁移学习——概念性认知
一、增强学习/强化学习(Reinforcement Learning) 我们总是给定一个样本x,然后给或者不给label y。之后对样本进行拟合、分类、聚类或者降维等操作。然而对于很多序列决策或者控制问题,很难有这么规则的样本。比如,四足机器人的控制问题,刚开始都不知道应该让其动那条腿,在移动过程中,也不知道怎么让机器人自动找到合适的前进方向。另外如要设计一个下象棋的AI,每走一转载 2017-08-08 17:37:37 · 961 阅读 · 0 评论 -
行为识别数据集汇总
工欲善其事,必先利其器http://www.cs.utexas.edu/~chaoyeh/web_action_data/dataset_list.html,此链接内容更全,可惜整理完后发现的。1. The KTH Dataset(2004)KTH数据集于2004 年的发布,是计算机视觉领域的一个里程碑。此后,许多新的数据库陆续发布。数据库包括在 4个不同场景下 25 个人完成转载 2017-08-21 11:11:30 · 1903 阅读 · 0 评论 -
行为识别笔记:improved dense trajectories算法(iDT算法)
转发请注明出处:http://blog.csdn.net/wzmsltw/article/details/53023363iDT算法是行为识别领域中非常经典的一种算法,在深度学习应用于该领域前也是效果最好的算法。由INRIA的IEAR实验室于2013年发表于ICCV。目前基于深度学习的行为识别算法效果已经超过了iDT算法,但与iDT的结果做ensemble总还是能获得一些提升。所以这几年好多论转载 2017-08-22 15:49:52 · 948 阅读 · 0 评论 -
Learning Spatiotemporal Features with 3D Convolutional Networks学习笔记
Learning Spatiotemporal Features with 3D Convolutional NetworksDu Tran, Lubomir Bourdev, Rob Fergus, Lorenzo Torresani, Manohar Paluri ICCV论文主要通过使用了深度3维卷积神经网络(C3D)提出了一种简单、高效的方法在大规模有监督视频数据集上用于时域空域的特征原创 2017-05-19 11:11:43 · 3356 阅读 · 0 评论 -
机器学习/深度学习/自然语言处理学习路线
原文地址:http://www.cnblogs.com/cyruszhu/p/5496913.html 未经允许,请勿用于商业用途!相关请求,请联系作者:yunruizhu@126.com 转载请附上原文链接,谢谢。1 基础l Andrew NG 的 Machine Learning视频。连接:主页,资料。l 2.2008年Andrew Ng CS229 机器学习当然基本方法没有太大变化,所转载 2017-12-22 16:09:07 · 897 阅读 · 1 评论 -
hing-loss
常见的损失误差有五种:铰链损失(Hinge Loss):主要用于支持向量机(SVM) 中;互熵损失 (Cross Entropy Loss,Softmax Loss ):用于Logistic 回归与Softmax 分类中;平方损失(Square Loss):主要是最小二乘法(OLS)中;指数损失(Exponential Loss) :主要用于Adaboost 集成学习算法中;其他损失(...原创 2018-09-26 17:23:46 · 1110 阅读 · 0 评论 -
CS231N softmax
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/stalbo/article/details/79379078 翻译笔记:https://zhuanlan.zhihu.com/p/21930884?refer=int...转载 2018-09-28 17:17:32 · 455 阅读 · 0 评论 -
GAN基本原理
生成式对抗网络(GAN)是近年来大热的深度学习模型。最近正好有空看了这方面的一些论文,跑了一个GAN的代码,于是写了这篇文章来介绍一下GAN。本文主要分为三个部分:介绍原始的GAN的原理 同样非常重要的DCGAN的原理 如何在Tensorflow跑DCGAN的代码,生成如题图所示的动漫头像,附送数据集哦 :-)一、GAN原理介绍说到GAN第一篇要看的paper当然是Ian Goodfello转载 2017-08-01 14:42:49 · 3039 阅读 · 1 评论 -
CVPR2017论文分类汇总
Machine Learning 1Spotlight 1-1AExclusivity-Consistency Regularized Multi-View Subspace ClusteringXiaojie Guo, Xiaobo Wang, Zhen Lei, Changqing Zhang, Stan Z. LiBorrowing Treasures From the Wealth原创 2017-08-08 11:30:13 · 32774 阅读 · 1 评论 -
全连接层的作用
全连接层到底什么用?我来谈三点。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1x1的卷积;而前层是卷积层的全连接层可以转载 2017-04-19 22:17:14 · 27049 阅读 · 0 评论 -
Understanding LSTM Networks
Understanding LSTM NetworksPosted on August 27, 2015Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each word b转载 2017-04-24 10:18:01 · 414 阅读 · 0 评论 -
光流法简单介绍
光流的概念是Gibson在1950年首先提出来的。它是空间运动物体在观察成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。一般而言,光流是由于场景中前景目标本身的移动、相机的运动,或者两者的共同运动所产生的。其计算方法可以分为三类:(1)基于区域或者基于特征的匹配方法;转载 2017-05-25 11:39:56 · 606 阅读 · 0 评论 -
谈谈深度学习中的 Batch_Size
谈谈深度学习中的 Batch_SizeBatch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。首先,为什么需要有 Batch_Size 这个参数?Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好处:其一,由全数据集确定的方向能够更好地代表样本总体,转载 2017-05-18 10:46:31 · 518 阅读 · 0 评论 -
基于DeepLearning的视频识别方法概览
基于DeepLearning的视频识别方法概览深度学习在最近十来年特别火,几乎是带动AI浪潮的最大贡献者。互联网视频在最近几年也特别火,短视频、视频直播等各种新型UGC模式牢牢抓住了用户的消费心里,成为互联网吸金的又一利器。当这两个火碰在一起,会产生什么样的化学反应呢?不说具体的技术,先上一张福利图,该图展示了机器对一个视频的认知效果。其总红色的字表示objects, 蓝色的字表示scenes,绿色转载 2017-05-19 11:45:47 · 1092 阅读 · 0 评论 -
行为识别(action recognition)相关资料
================华丽分割线=================这部分来自知乎====================链接:http://www.zhihu.com/question/33272629/answer/60279003有关action recognition in videos, 最近自己也在搞这方面的东西,该领域水很深,不过其实主流就那几招,我就转载 2017-06-13 16:20:39 · 1680 阅读 · 0 评论 -
[数据预处理]one-hot编码
网上关于One-hot编码的例子都来自于同一个例子,而且结果来的太抖了。查了半天,终于给搞清楚这个独热编码是怎么回事了,其实挺简单的,这里再做个总结。 首先,引出例子:已知三个feature,三个feature分别取值如下: feature1=[“male”, “female”] feature2=[“from Europe”, “from US”, “from Asia”] feature转载 2017-07-05 17:16:30 · 1093 阅读 · 0 评论 -
稀疏编码Sparse coding
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.csdn.net/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。2)本文仅供学转载 2017-08-08 08:59:14 · 2447 阅读 · 0 评论 -
特征选择综述
转载:http://www.cnblogs.com/heaad/archive/2011/01/02/1924088.html1 综述(1) 什么是特征选择特征选择 ( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ) ,或属性选择( Attribute Selection ) ,是指从全部特征中选取一个特征子集,使构造出来的转载 2017-08-08 09:52:46 · 505 阅读 · 0 评论 -
CNN的训练图像与测试图像不一致的多尺度问题
1. 传统检测和定位方法 对于检测和定位问题,最自然(也是最常用的方法)就是采用滑窗对每一个图像块进行检测,从而确定目标物体的位置。以上解决分类、检测和定位的方法有一个共同的地方,就是需要一个滑窗对整幅图像进行密集采样,然后处理每一个采样得到的图像块。传统的处理这些图像块的方法是一个接一个处理。但是,CNN有更便捷的做法。2. CNN检测和定位方法2.1 密集采样(滑窗)转载 2017-08-08 10:11:37 · 2920 阅读 · 1 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上转载 2017-08-08 11:06:38 · 410 阅读 · 0 评论 -
自编码器简介
一、什么是自编码器(Autoencoder)自动编码器是一种数据的压缩算法,其中数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。在大部分提到自动编码器的场合,压缩和解压缩的函数是通过神经网络实现的。1)自动编码器是数据相关的(data-specific 或 data-dependent),这意味着自动编码器只能压缩那些与训练数据类似的数据。比如,使用人脸训练出来的自动编码器在...转载 2019-02-22 14:31:23 · 2585 阅读 · 0 评论