自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(73)
  • 资源 (6)
  • 收藏
  • 关注

原创 【教程】旷视的两个有趣的东西

第一个是旷视和北大在2017-2019年搞的联合课程github:https://github.com/zsc/megvii-pku-dl-courseB站视频:https://www.bilibili.com/video/av88056282讲课的不单有耳熟能详的几位大佬,还有在科研交付一线打拼多年,当下各战线的领军人物。第二是刚刚开源的MegEnginegithub:https...

2020-03-26 11:40:50 753 1

原创 【平价数据】Creatism:Google的自动风光摄影师

Fang, Hui, and M. Zhang. “Creatism: A deep-learning photographer capable of creating professional work.” (2017).这篇论文借助有限的无标定数据,用深度网络在虚拟自然环境中完成“取景-调色-打光”的摄影过程。所涉及的理论并不复杂,但给出的过程详细,对解决实际问题很有启发。 这里可以看

2018-01-04 15:51:52 3868 2

原创 【目标检测】YOLO: You Only Look Once

YOLO目标检测算法详解

2017-12-21 08:23:45 5221

原创 【深度学习】一张图看懂Receptive Field

本文尝试用最简明直白的图示,帮助理解和记忆Receptive Field的计算方法。什么是Receptive Field?在CNN中,第n层特征图中一个像素,对应第1层(输入图像)的像素数,即为该层的Receptive Field,简称RF。基本思路网络第1层输入,第n" role="presentation" style="position: relative;">nn

2017-12-15 22:36:03 16764 1

原创 【推荐系统】Factorization Machine

本文介绍推荐系统基础算法Factorization Machines的模型思想、计算与优化方法。

2017-12-11 21:41:18 8704 2

原创 【优化】共轭函数(Conjugate Function)超简说明

从便于理解的角度介绍共轭函数的概念并推导常用例子。

2017-10-10 16:22:18 35924 6

原创 【优化】对偶上升法(Dual Ascent)超简说明

从便于理解的角度结合图示介绍对偶上升法。

2017-10-08 15:53:10 23256 16

原创 【时间序列】时间序列分割聚类算法TICC

2017年KDD最佳论文,解决高维时间信号的自动分割聚类问题,并给出基于python的源码。

2017-09-29 15:39:05 33509 32

原创 【平价数据】SimGAN:活用合成数据和无监督数据

Shrivastava, Ashish, et al. “Learning from simulated and unsupervised images through adversarial training.” IEEE Conference on Computer Vision and Pattern Recognition.2017概述本文是Apple在机器学习领域的首秀,同

2017-09-15 15:09:44 5503

原创 【平价数据】GAN用于半监督学习

介绍Improved techniques for training gans中使用GAN进行半监督分类的方法

2017-07-25 13:04:42 17073 7

原创 【深度学习】One Model to Learn Them All详解

详解Google论文One Model To Learn Them All

2017-07-04 21:33:53 7361 2

原创 【深度学习】DeepMind关系推理网络

介绍Deep Mind简单而强力的关系推理网络:A simple neural network module for relational reasoning。

2017-06-22 18:14:35 7768

翻译 【深度学习】为什么深度学习需要大内存?

介绍深度学习中内存的开销来源,以及降低内存需求的几种解决方案。

2017-05-12 15:30:50 26900 2

原创 【深度学习】RNN的梯度消失/爆炸与正交初始化

在训练较为复杂的RNN类型网络时,有时会采取正交方法初始化(orthogonal initialization)网络参数。本文用简单的例子介绍其中的原因。本文较大程度参考了这篇博客。简单例子RNN具有如下形式: ht=fh(W⋅ht−1+V⋅xt)h_t=f_h(W\cdot h_{t-1}+V\cdot x_t)yt=fy(U⋅ht)y_t = f_y(U\cdot h

2017-05-09 22:40:22 11542

原创 【深度学习】Inception层详解

本文参考Torch的dpnn包中Inception层的源码,讲解该模块参数含义以及网络结构。核心思想Inception模块的起点是类似下图的结构:通道从M变换到N,把多个不同尺寸的卷积结果串接(concat)起来。 由于M,N往往很大,这种结构的模型大小和运算量都不小。 卷积运算,输入M层,输出N层,核尺寸k。输入数据大小H*W。 卷积参数数量:weight + b

2017-04-09 18:28:37 11423 2

原创 【数学】方差/标准差的各种估计辨析

常用的方差(variance)、标准偏差(standard derivation)的内涵和计算方法有许多容易混淆之处,本文进行梳理。

2017-02-28 18:49:44 14203 1

原创 【线性代数】特征值的物理意义

从坐标变换角度介绍特征值的物理意义

2017-02-27 20:47:22 6735

原创 【优化】拉格朗日(Lagrange)乘子法超简说明

本文不做数学推导,从物理意义上讲解拉格朗日乘子法。

2017-02-19 21:34:41 17094 1

原创 【线性代数】矩阵与线性方程组的几何意义

有线性方程组Ax=bAx=b。本文以三维为例,讨论其物理意义。解的物理意义上述线性方程组包含若干个三元一次方程: a11x1+a12x2+a13x3=b1a_{11}x_1+a_{12}x_2+a_{13}x_3 = b_1a21x1+a22x2+a23x3=b2a_{21}x_1+a_{22}x_2+a_{23}x_3 = b_2a31x1+a32x2+a33x3=

2017-02-07 19:28:53 16510 1

原创 【行人识别】Deep Transfer Learning for Person Re-identification

解决行人识别中的Re-Identification问题:判断两次出现的人是否是同一个人。在Market 1501竞赛中名列榜首。

2016-12-22 16:02:01 10082 6

原创 【深度学习】包教包会LSTM

本文本着由浅入深原则介绍LSTM模块结构,使用流程图梳理公式,保证看完过目不忘,神清气爽。

2016-11-15 19:14:32 8160 1

原创 【平价数据】One Shot Learning

简介DeepMind解决小样本学习问题的文章:Matching Networks for One Shot Learning

2016-11-12 12:13:55 18367 11

原创 【TensorFlow动手玩】队列

TensorFlow中的队列机制

2016-11-06 11:20:38 10694 6

原创 【TensorFlow动手玩】数据导入2

TensorFlow的第二种数据导入机制:二进制文件。

2016-11-05 11:20:32 13433 3

原创 【TensorFlow动手玩】数据导入1

TensorFlow的第一种数据导入方法:Feeding

2016-11-05 11:18:40 2138

原创 【TensorFlow动手玩】常用集合: Variable, Summary, 自定义

TensorFlow的集合,Variable,Summary

2016-11-04 23:10:33 28594

原创 【TensorFlow动手玩】基本概念: Tensor, Operation, Graph

介绍TensorFlow中三大基本概念:Tensor,Operation,Graph

2016-11-04 20:07:30 6635

原创 TensorFlow文档索引

TensorFlow官方API文档索引(r0.11),只列出一级标题便于检索。

2016-11-04 20:03:38 1310

原创 【深度学习】残差结构:1000层网络

本文介绍深度神经网络从几层加深到一千层的各种关键技术,尤其聚焦残差结构(Residual)在其中发挥的作用。

2016-10-12 17:53:00 9105

原创 【深度学习】常见优化算法

本文介绍常见数值优化算法,其中的一阶方法在现代的神经网络框架(tensorflow, torch)中已经是标准配置,介绍较详细。

2016-10-09 19:25:57 13539

原创 【优化】梯度下降 收敛性 证明

梯度下降方法的收敛率是O(1/t)O(1/t)。本文首先介绍梯度下降算法的定义,之后解释收敛性的意义,并给出梯度下降算法收敛性详细证明过程1。梯度下降算法设系统参数为xx。对于样本ii,其代价函数为fi(x)f_i(x)。在n个样本组成的训练集上,其整体代价函数为: f(x)=∑i=1nfi(x)f(x)=\sum_{i=1}^nf_i(x)要求ω\omega使得上式最小,

2016-09-19 23:01:34 26820 12

原创 【深度学习】Torch卷积层源码详解

本文以前向传播为例,详细分析Torch的nn包中,SpatialConvolution函数的实现方式。

2016-08-31 19:11:57 10064 2

原创 【深度学习】卷积层提速Factorized Convolutional Neural Networks

详解深度学习卷积层优化算法Factorized Convolutional Neural Networks。

2016-08-24 17:59:29 17951 8

原创 【深度学习】生成对抗网络Generative Adversarial Nets

介绍非监督深度学习经典论文GAN(Generative Adversarial Nets)

2016-08-17 19:05:51 50464 12

原创 【图像理解】之Show, attend and tell算法详解

详解图像理解中的聚焦机制代表作Show, attend and tell算法。

2016-08-13 22:10:16 39933 17

原创 【深度学习】A neural algorithm of artistic style算法详解

介绍2016年深度学习大热的风格转移论文:A neural algorithm of artistic style。

2016-08-07 11:45:17 23635 5

原创 【循环网络】Torch中的rnn

本文从零开始,动手玩一玩Nicolas Leonard在Torch框架下提供的rnn库。这里以每一个类为单位,使用简单的例子进行演练,比作者提供的一系列demo更加好懂。

2016-07-12 11:20:03 2259

原创 【深度学习】聚焦机制DRAM(Deep Recurrent Attention Model)算法详解

Visual Attention基础,Multiple object recognition with visual attention算法解读。

2016-06-28 22:14:55 13843 2

原创 【循环网络】simple recurrent network源码解读

利用Torch中的rnn库展示RNN基本流程。

2016-06-20 17:44:20 2147

原创 【增强学习】Recurrent Visual Attention源码解读

Mnih, Volodymyr, Nicolas Heess, and Alex Graves. “Recurrent models of visual attention.” Advances in Neural Information Processing Systems. 2014.戳这里下载训练代码,戳这里下载测试代码。这篇文章处理的任务非常简单:MNIST手写数字分类。但使用了聚焦机制(

2016-06-17 21:18:27 14090 16

Bayesian Prediction of Spatial Count Data Using Generalized Linear Mixed Models

利用线性混合模型做贝叶斯预测的论文,来自Wiley数据库,在google scholar上没有下载

2015-12-25

Feature-guided Image Stippling

自动生成勾线和点画的非真实感图像。点画的位置沿着灰度边缘分布。 This paper presents an automatic method for producing stipple renderings from photographs, following the style of professional hedcut illustrations. For effective depiction of image features, we introduce a novel dot placement algorithm which adapts stipple dots to the local shapes. The core idea is to guide the dot placement along ‘feature flow’ extracted from the feature lines, resulting in a dot distribution that conforms to feature shapes. The sizes of dots are adaptively determined from the input image for proper tone representation. Experimental results show that such feature-guided stippling leads to the production of stylistic and feature-emphasizing dot illustrations.

2015-02-24

2001.Random Forests.Machine Learning

Random forests算法是Leo Breiman于1999年发明分类/回归算法,可以处理大量训练样本,由于随机性的引入,不容易发生过拟合。这篇论文是关于这一算法的最经典著述。

2014-08-24

OpenGL Documentation (html)

解压为一系列html文件。opengl.html为目录文件。 其中各个链接逐个说明openGL函数的用途、参数表、参数意义。 来源: http://www.cs.utk.edu/~vose/c-stuff/opengl/index.html

2009-02-08

OpenGL读取3DS文件示例

使用OpenGL读取3DS文件的示例代码。 演示说明了3DS文件的结构、三维控件中视线、旋转设置,以及简单的动画。 重要说明如下 ------------------全局变量------------- g_Load3ds 读入数据的类 g_3DModel 数据本身 g_RotationSpeed 旋转速度 ---------------------函数--------------- 【WinMain】 入口函数。 调用Init初始化OpenGL 调用MainLoop显示 【Init】 初始化OpenGL,读取数据 调用InitialOpenGL初始化 调用CLoad3DS的Import3DS函数,从文件中读取g_3DModel 调用CreateTexture,装入纹理 【MainLoop】 循环调用RenderScence渲染场景,直到窗口关闭时退出 删除场景中对象 效用DeInit恢复初始化之前的状态 【RenderScence】 渲染 gluLookAt,选择视角 glRotatef,旋转 --------------------------------------- 根目录下FACE.3DS为三维数据,FACE.BMP为其所指的贴图数据。 如果想读取其他文件,在代码中替换#define FILE_NAME "face.3ds"为其他3DS格式文件名即可。 如果读取结果是黑屏,往往是视角和视场设置错误,可以查看三维数据的位置,更改gluLookAt和gluPerspective。

2008-10-01

清华大学模式识别讲义

清华大学模式识别讲义。共12章。为课堂使用的讲义。

2008-09-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除