机器学习
Richard_Che
这个作者很懒,什么都没留下…
展开
-
Convolution & DepthWise Conv
CNN中的卷积(Convolution)操作详解CNN中的卷积层为了能适配NCHW这样的layout,将卷积的参数也设计成4维矩阵的形式,如下图所示(假设batch size = 1)h,w分别为卷积核的大小,比如(5,5),(3,3) 一个卷积核:定义为(1, C, h, w)这样的格式,C为输入特征图的通道数 输入特征图经过一个卷积核后变成1*1*H/s*W/s,其中s为卷积的步长(stride) 如果输出通道数为M,则会有M个这样的卷积核(绝大多数情况下这M个卷积核的参数或者说权重都不相原创 2020-05-23 00:14:02 · 741 阅读 · 0 评论 -
Hinge Loss简介
Hinge Loss简介标准Hinge LossHinge本身是用于分类的Loss,给定Label y=±1y=\pm 1y=±1这个Loss的目的是让预测值y^∈R\hat{y} \in Ry^∈R和yyy相等的时候,返回0,否则返回一个线性值基于2的需求,Hinge Loss的定义:L(y^)=max(0,1−y⋅y^)L(\hat{y}) = max(0, 1-y \cdot \hat{y})L(y^)=max(0,1−y⋅y^)。当yyy和y^\hat{y}y^相等,Loss等于0原创 2020-05-18 22:01:07 · 13185 阅读 · 1 评论 -
Caffe学习(1): Caffe Tutorial阅读笔记
Caffe定义网络的基本组成结构:blob,net,layer原创 2017-05-19 23:09:35 · 292 阅读 · 0 评论 -
MxNet 学习笔记(1):MxNet中的NDArray
NDArray在MxNet中,NDArray是所有数学运算的核心数据结构,与Numpy中的ndarray相似。与numpy相比,MxNet中的NDArray有以下的优点:对平台通用:在CPU GPU下都兼容可以自动地并行化NDArray的创建在Mxnet中,NDArray实质上指的是mx.nd.array,并且有以下几种常用的属性:ndarray.shape: The dimensions原创 2017-06-24 23:21:42 · 10606 阅读 · 0 评论 -
MxNet学习笔记(2):GPU支持以及其他
GPU的使用在MxNet中,可以通过gpu_device=mx.gpu()来创建GPU的context创建矩阵的时候,可以通过a = mx.nd.ones((100,100))来创建需要执行一个函数的时候,可以通过以下方式在GPU上执行:gpu_device=mx.gpu() # Change this to mx.cpu() in absence of GPUs.def原创 2017-06-25 09:53:02 · 5468 阅读 · 4 评论 -
MxNet学习笔记(3):关于Symbol
Symbol与caffe类似,MxNet中定义了符号运算。我对符号运算的理解是:区别于之前介绍的NDArray,通过符号,我们可以定义出一系列的表达式,或者网络。这样定义出来的表达式或网络有点类似于数学中的函数式,比如f(x)=ax+bf(x) = ax + b,这时候,aa,xx,bb,都仅仅是一些符号,本身的值是未确定的。当这些符号被赋予具体的数值时,才能计算出函数式本身的值f(x)f(x)。而原创 2017-06-25 17:40:02 · 3386 阅读 · 0 评论