Deep Learning(Caffe、TF)
文章平均质量分 81
成长Bar
人生為棋,我願為卒,行動雖慢,可誰見我後退過一步!
展开
-
caffe平台快速搭建:caffe+window7+vs2013
caffe平台快速搭建:caffe+window7+vs20131、caffe-master下载 采用微软提供Windows工具包(caffe-master),下载地址:https://github.com/Microsoft/caffe2、微软的Windows三方包同样采用微软的Windows三方包,网络上已有下载打包好的,强力推原创 2016-11-01 19:13:47 · 1343 阅读 · 1 评论 -
Windows平台上Caffe的训练与学习方法(以数据库CIFAR-10为例)
Windows平台上Caffe的训练与学习方法(以数据库CIFAR-10为例) 在完成winodws平台上的caffe环境的搭建之后,亟待掌握的就是如何在caffe中进行训练与学习,下面将进行简单的介绍。1、数据库CIFAR-10的下载与介绍 CIFAR-10数据库的下载地址:http://www.cs.toronto.edu/~kr原创 2016-12-03 15:29:30 · 1403 阅读 · 0 评论 -
Tensorflow平台快速搭建:Windows 7+TensorFlow 0.12.0
Tensorflow平台快速搭建:Windows7+TensorFlow v0.12.01、TensorFlow v0.12.0下载 2016年11月29日,距离TensorFlow 宣布开源刚刚过去一年,支持 Windows7、10 和 Server 2016的新版本v0.12正式发布。 下载地址:https://github.com/tensorflow/tenso原创 2017-01-04 19:35:41 · 2080 阅读 · 0 评论 -
Caffe学习笔记(一):Caffe架构及其模型解析
Caffe学习(一):Caffe架构及其模型解析 写在前面:关于caffe平台如何快速搭建以及如何在caffe上进行训练与预测,请参见前面的文章《caffe平台快速搭建:caffe+window7+vs2013》、《Windows平台上Caffe的训练与学习方法(以数据库CIFAR-10为例)》。 本文主要介绍Caffe的总体框架,并对caffe原创 2016-12-17 16:32:13 · 10117 阅读 · 2 评论 -
AI理论学习笔记(一):深度学习的前世今生
深度学习入门(一):深度学习的前世今生 大家还记得以深度学习技术为基础的电脑程序AlphaGo吗?这是人类历史中在某种意义的第一次机器打败人类的例子,其最大的魅力就是深度学习(Deep Learning)技术。1、深度学习的前世 早在1969年,Minsky教授(MIT教授,人工智能研究的先驱者)就一直不太看好神经网络技术(即深度学习原创 2016-08-27 23:43:08 · 1835 阅读 · 0 评论 -
Caffe学习笔记(二):Caffe前传与反传、损失函数、调优
Caffe学习(二):Caffe之前传与反传、损失函数、调优 在caffe框架中,前传/反传(forward and backward)是一个网络中最重要的计算过程;损失函数(loss)是学习的驱动,类似于视频编码中的率失真代价,是衡量学习的程度,或者说,学习的目的是找到一个网络权重的集合,使得损失函数最小;Solver是通过协调网络的前向推断计算和反向计算来对参数进行更新,从而达原创 2017-01-07 19:46:26 · 1832 阅读 · 0 评论 -
Caffe学习笔记(三):Caffe数据是如何输入和输出的?
Caffe学习笔记(三):Caffe之caffe数据是如何输入和输出的? Caffe中的数据流以Blobs进行传输,在《Caffe学习笔记(一):Caffe架构及其模型解析》中已经对Blobs进行了简单的介绍。下面对caffe数据是如何输入和输出做更加详细的分析。1、输入/输出之Blobs caffe使用blobs结构来存储、交换并处理网络中正向和反向迭代时的数据和导数原创 2017-01-07 19:47:15 · 4751 阅读 · 1 评论 -
吴恩达课程及视频笔记汇总
第一课第一周 深度学习概论1.2 什么是神经网络? 课程 笔记1.3 用神经网络进行监督学习 课程 笔记1.4 为什么深度学习会兴起? 课程 笔记第二周 神经网络基础2.1 二分分类 课程 笔记2.2 logistic 回归 课程 笔记2.3 logistic 回归损失函数 课程 笔记2.4 梯度下降法 课程 笔记2.5 导数 ...原创 2018-04-25 11:27:34 · 3502 阅读 · 0 评论