- 博客(8)
- 资源 (17)
- 收藏
- 关注
原创 caffe学习笔记10.1--Fine-tuning a Pretrained Network for Style Recognition(new)
在之前的文章里,写过一个关于微调的博客,但是今天上去发现这部分已经更新了http://nbviewer.jupyter.org/github/BVLC/caffe/blob/master/examples/02-fine-tuning.ipynb,因此补一篇最新的,关于微调,前面的文章由讲,参考http://blog.csdn.net/thystar/article/details/5067553
2016-04-28 16:44:30 4841 5
原创 caffe学习笔记3.3--Loss
与大多数的机器学习算法一样,caffe的学习也是由loss function驱动的(或者叫error,cost,objective function)。损失函数的目标是,将参数(就是网络中的权值和偏置)映射到一个能够度量参数“不好程度”的标量中,因此,其目标就是让这个标量最小化(其实就是调整参数,是的损失函数的值最小)。在caffe中,通过前向传播计算损失,每一层由一系列的输入(bottom)
2016-04-26 16:23:33 5372
原创 caffe学习笔记3.2--前向传播和反向传播
caffe学习笔记3从3.1开始主要翻译一下caffe的官方文档,写的非常好,忍不住要作一下。本篇翻译来自caffe官网的:http://caffe.berkeleyvision.org/tutorial/forward_backward.html前向传播和反向传播是计算神经网络非常重要的部分。考虑一个简单的逻辑回归分类问题前向传播:通过网络的输入计算输出结果的过程,在前向传播中,
2016-04-26 09:42:24 10845
原创 七月算法机器学习笔记1--机器学习中的数学之数理统计和参数估计
数理统计和参数估计首先,看一下概率与统计的关注点概率论问问题的方式:已知总体的可能性,求某种事件发生的概率,如图所示:
2016-04-25 18:06:42 2926
原创 caffe学习笔记3.1 -- caffe的三级结构
在caffe教程中,介绍了caffe的三级结构:Blobs, Layers,Nets.如下图所示:深度网络是一个复杂的模型,caffe定义了一个层与层之间连接的网络模型。这个网络定义了从输入层到损失的所有模型结构。
2016-04-20 18:14:26 3325
原创 caffe学习笔记14(外篇)--使用CodeBlocks调试caffe代码
在这篇博客里,我来说一下如何使用CodeBlocks去执行和调试caffe的代码。在之前的文章中,我们都是直接调用caffe中的代码,但是其内部是如何运行的,我们并没有看到,这里,我们将caffe代码放到codeblocks创建的工程中,就可以单步调试代码了。我们以运行examples/mnist/convert_mnist_data.cpp的代码为例。关于mnist的训练,请参考点击链接
2016-04-18 14:03:26 4822 9
原创 caffe学习笔记5 -- Alex’s CIFAR-10 tutorial, Caffe style
这是caffe官网中Examples中的第三个例子,链接地址:http://caffe.berkeleyvision.org/gathered/examples/cifar10.html这个例子重现了Alex Krizhevsky的cuda-convnet中的结果,具体的模型定义、参数、训练步骤等都是按照cuda-convnet中的进行设置的。数据集描述:CIFAR
2016-04-12 18:08:43 2727
同频干扰
2013-08-08
OPNET WiMAX-cochnl_diff_perm_7xl
2013-08-08
NE-str750 Watchdog定时器
2013-03-08
局部线性降维算法
2013-03-08
Amazon’s Dynamo簡介部份
2013-03-08
数据结构排序算法代码汇总
2012-11-22
P2P网络中污染扩散的流模型ppt
2012-11-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人