![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
计算机视觉/深度学习
文章平均质量分 78
黄小猿
数学系的孩子,对人工智能有着极大的热情,让机器像人一样,学习提升,是挑战人类对大脑的认知底限,愿尽自己的绵薄之力,让这个世界更美好。
展开
-
【深度学习之一】数学基础
范数在机器学习中经常使用范数来衡量一个向量的大小,定义如下: 其中p∈R,p≥1p\in R,p \geq1,对于任何的函数ff,满足:(1)f(x)=0⇒x=0f(x)=0 \Rightarrow x=0(2)f(x+y)≤f(x)+f(y)f(x+y) \leq f(x) +f(y)(3)∀α∈R,f(αx)=∣α∣f(x)\forall \alpha \in R,f(\alpha x) =原创 2017-11-19 09:56:53 · 855 阅读 · 0 评论 -
(CNN)卷积神经网络(三)-理解卷积操作
1-池化层pooling layer2- FC全连接层3-可视化理解4- CNN的训练算法5-从数学的角度理解卷积第一种思路 降维打击第二种思路傅立叶变换与卷积第一篇文章介绍了卷积神经网络的数据输入形式和权值的初始化:CNN)卷积神经网络(一) 第二篇文章介绍了卷积操作,常用的激活函数(CNN)卷积神经网络(二 下面来看一下接下来的层级结构: 1-池化层(po原创 2017-12-04 19:05:02 · 2470 阅读 · 0 评论 -
GAN原理解析,公式推导与python实现
1-生成模型1-1 生成模型与判别模型1-2 为什么学习生成模型1-3 生成模型原理似然原理2-生成式对抗网络2-1 生成式对抗网络工作原理2-2 判别器的损失函数2-3 生成器损失定义1minimax2-4 生成器损失定义2Non-Saturating Game2-5 第三种策略极大似然估计2-5-1 KL 散度的定义2-5-2 KL散度的推导2-5-3 利用KL散度原创 2018-01-08 16:45:33 · 11234 阅读 · 1 评论 -
【计算机视觉之四】深度学习框架介绍
本文简单介绍一下当前比较受欢迎的各种深度学习框架,以及基本的使用方法。Caffe 1.1 Caffe的安装教程 1.2 Caffe 的使用方法 1.2.1 Caffe基本设置 1.2.2 Python接口:pycaffeTensorflow 2.1 基本概念四种框架一览: 1.Caffe 1.1 Caffe的安装教程Caffe是目前产品化最多的框架,而且在处理图像问题上原创 2017-11-26 11:52:30 · 2093 阅读 · 0 评论 -
详细解读Spatial Transformer Networks(STN)-一篇文章让你完全理解STN了
目录STN的作用 1.1 灵感来源 1.2 什么是STN?STN的基本架构Localisation net是如何实现参数的选取的? 3.1 实现平移 3.2 实现缩放 3.3 实现旋转 3.4 实现剪切 3.5 小结Grid generator实现像素点坐标的对应关系 4.1 为什么会有坐标的问题? 4.2 仿射变换关系Sampler实现坐标求解的可微性 5.1 小数原创 2017-12-22 10:36:26 · 109340 阅读 · 36 评论 -
【计算机视觉之三】运用k近邻算法进行图片分类
这篇文章主要给不知道计算机视觉是啥的人介绍一下图像分类问题以及最近的最近邻算法。目录图像分类 1.1 图像分类的原理 1.2 面临的问题 1.3 图像分类任务最近邻算法代码实现L2距离用k-近邻进行图片分类 5.1 k近邻分类原理 5.2 超参数的选取小结一下最近邻和k近邻 1.图像分类 1.1 图像分类的原理计算机视觉中的核心问题是给定一张图片的类别,新来一张图片,原创 2017-11-25 10:14:23 · 10007 阅读 · 0 评论 -
(CNN)卷积神经网络(四)dropout
第一篇文章介绍了卷积神经网络的数据输入形式和权值的初始化:CNN)卷积神经网络(一) 第二篇文章介绍了卷积操作,常用的激活函数(CNN)卷积神经网络(二) 第三篇介绍了卷积神经网络的池化层,可视化理解以及用数学的角度理解卷积操作:(CNN)卷积神经网络(三) dropout第一种理解方式 大家应该都有了解过集成学习吧,不了解也没关系,在我看来,集成学习最牛逼的想法就是利用自主采样原创 2017-12-04 21:25:36 · 19837 阅读 · 2 评论 -
(CNN)卷积神经网络(五)常见卷积神经网络
LetnetAlexnetZFnetVGGGooglenetResnet: Deep Residual Learning Networkfine-tune第一篇文章介绍了卷积神经网络的数据输入形式和权值的初始化:CNN)卷积神经网络(一) 第二篇文章介绍了卷积操作,常用的激活函数(CNN)卷积神经网络(二) 第三篇介绍了卷积神经网络的池化层,可视化理解以及用数学的角度理解卷积操作:原创 2017-12-04 22:42:53 · 827 阅读 · 0 评论 -
(CNN)卷积神经网络(二)
卷积计算层 1.1卷积的通俗理解-为什么参数会大大减少 1.2卷积的计算ReLu激励层/ReLu layer 2.1 为什么要用激励层? 2.2 sigmoid函数 2.3 tanh函数 2.4 RELU 2.5 Leaky-Relu 2.6 maxout 2.7 所有激活函数汇总上一篇文章((CNN)卷积神经网络(一))说了卷积神经网络的层级结构和数据输入层的数据具体是怎么处原创 2017-12-04 14:04:06 · 1269 阅读 · 0 评论 -
(CNN)卷积神经网络(一)
卷积神经网络与人工神经网络神经网络的层级结构数据输入层权值初始化 1.卷积神经网络与人工神经网络卷积神经网络与一般的神经网络很相似,每个节点都接受相应的数据,有点乘,也有非线性映射,但卷积神经网络最大的改进之处在于卷积层,它极大的减少了参数w的数量,以至于大大降低了计算量。那它到底是具体怎么做的呢?我们一起来谈一个究竟。就像我在这篇文章(人工神经网络)中说过的那样,神经网络会接受一个输入(原创 2017-12-04 09:50:42 · 1870 阅读 · 0 评论 -
反向传播中的数学理解
前言梯度的直观解释用链式法则计算f(x)f(x)公式与代码 1.前言在人工神经网络这篇文章中,除了介绍简单的神经网络,还举了一个非常详细的关于反向传播算法的传播过程,但这一次,希望通过更加直观的例子,来了解反向传播,同时会用到链式法则。深入理解反向传播的过程及其中的微妙变化,有助于我们更好的理解神经网络和调试我们的代码。我们这次的核心问题就是:给定一个函数f(x)f(x),其中xx是一个输原创 2017-12-03 17:41:32 · 587 阅读 · 0 评论 -
【计算机视觉之五】RCNN/Fast-RCNN/Faster-RCNN
本文为课程笔记问题1:给出一张图,如何用分类做检测,如图所示,其实就是划分一个个分类框。小的粉红色框可能对花的打分就会很高,大的框可能对狗的打分就会很高。Selective search:自底向上(bottom-up segmentation) 其理念是通过颜色距离来聚类,形成如图第一张那样子的小方格,每个方格都有一种颜色,最后小方格会结合起来,形成右图这样的区域。 2.1 RCNN 如图原创 2017-11-26 21:18:19 · 589 阅读 · 0 评论 -
【计算机视觉之二】人工神经网络
目录 1. 线性分类器 1.1 线性分类器分类原理 1.2学习的误差—损失函数 2. 神经网络初步 2.1 什么是神经网络? 2.2 非线性可分问题 2.3 激活函数 3. 算法初步 3.1 BP算法 3.2 SGD(随机梯度下降) 3.3 反向传播详细栗子与运算过程 4. 练习案例—感知器案例+寒老师写的人工神经网络 1.线性分类器 1.1 分类原理在分原创 2017-11-19 20:18:41 · 769 阅读 · 0 评论 -
多种多样的GAN-W-GAN
GAN出现的问题W-GANW-GAN的优点GAN出现的问题前面写过一篇文章说GAN的基本原理和公式的解析:GAN原理解析,公式推导与python实现,我们说到GAN的发明人提出的损失函数:L=−Ex~Pr[log D(x)]−Ex~Pg[log (1−D(x))](1)L = -E_{x~P_r}[log\ D(x)] - E_{x~P_g}[log\ (1-D(x))] \tag 1当该损失原创 2018-03-21 18:36:34 · 1045 阅读 · 0 评论