DeepLearning
文章平均质量分 79
Rosun_
风暖
展开
-
DeepLearning&Tensorflow学习笔记2__mnist数据集CNN
1.Introduction利用卷积神经网络CNN对Mnist数据集手写数字进行分类。2.Source codeVersion1:coding:utf-8import input_dataimport tensorflow as tflog_dir = "cnn_mnist_logs"mnist = input_data.read_data_sets('MNIST_data', one_ho原创 2017-08-04 21:18:15 · 702 阅读 · 0 评论 -
pyenv、Anaconda、tensorflow-gpu-1.2.0的安装和使用
1.pyenvpyenv是一个Python版本管理工具,它能够进行全局的Python版本切换,也可以为单个项目提供对应的Python版本。安装不同的Python版本并不是一件容易的事情,在不同的Python版本之间来回切换更加困难,而且,多版本并存非常容易互相干扰。因此,我们需要一个名为pyenv的工具。使用pyenv以后,可以在服务器上安装多个不同的Python版本,也可以安装不同的Pyth原创 2017-09-22 21:56:03 · 2196 阅读 · 1 评论 -
语义分割
IntroductionSemantic Segmentation:将图像中每个像素分配到某个对象类别。图像语义分割中存在3种挑战:(1)特征分辨率减少,(2)不同尺度下的物体的存在状况,(3)由于深度卷积神经网络的不变性造成的定位精度减少。第一个挑战是由 基于分类的卷积神经网络包含重复最大池化和降采样(步长跨度)操作造成的。深度卷积神经网络采用全卷积方式的时候,会明显降低特征地图的空间分辨率。原创 2017-09-27 10:32:22 · 6849 阅读 · 0 评论 -
Instance segmentation: MNC、FCIS、Mask R-CNN
Paper1:《Instance-aware Semantic Segmentation via Multi-task Network Cascades》本论文为CVPR16 arxiv:1512 Micorsoft Research Author:Jifeng Dai Kaiming He Jian Sun (1)提出Muti-task Network Cascades(多任务原创 2017-09-29 17:18:01 · 1899 阅读 · 0 评论 -
机器学习中的优化算法、加速训练机制、损失函数、KL散度和交叉熵
1.优化算法为了说明梯度下降法、随机梯度下降法、批量梯度下降法三者区别,我们通过一组数据来拟合 y=θ1∗x1+θ2∗x2 y = \theta_1*x_1 +\theta_2*x_2梯度下降(gradient descent):在梯度下降中,对于θθ的更新,所有的样本都有贡献,也就是所有样本参与调整θθ.其计算得到的是一个标准梯度。因而理论上来说一次更新的幅度是比较大的。如果样本不多的情况下,当原创 2016-11-17 16:59:51 · 3316 阅读 · 0 评论 -
Object Detection:R-CNN、Fast R-CNN、Faster R-CNN论文阅读笔记
1.引言Ross Girshick(rbg大神)2014年提出R-CNN架构,可谓给object detection领域一个里程碑的前进,在此之前object detection性能已经好些年没有大的提高了。本文是笔者阅读R-CNN系列文章的学习笔记。2.R-CNN部分2.1 R-CNN介绍R-CNN combines two key insights: (1) one can apply hig原创 2017-09-30 17:12:28 · 1588 阅读 · 0 评论 -
经典卷积神经网络总结:LeNet-5、AlexNet、ZFNet、VGG、GoogleNet、ResNet
1.LeNet-5—-1989LeNet-5是卷积网络的开上鼻祖,它是用来识别手写邮政编码的,论文可以参考Haffner. Gradient-based learning applied to document recognition.大名鼎鼎的LeNet5诞生于1994年,是最早的深层卷积神经网络之一,并且推动了深度学习的发展。从1988年开始,在多次成功的迭代后,这项由Yann LeCun完成的原创 2016-11-12 23:00:19 · 11030 阅读 · 0 评论 -
Tensorflow中计算图机制和常用函数笔记
0计算图机制程序如下:#basic computational graphimport numpy as npnp.random.seed(0)import tensorflow as tfN, D =3, 4x=tf.placeholder(tf.float32)y=tf.placeholder(tf.float32)z=tf.placeholder(tf.float32)a=x*y原创 2017-09-12 16:43:13 · 1875 阅读 · 0 评论 -
DeepLearning&Tensorflow学习笔记4__mnist数据集DCGAN
1.Introduction利用mnist数据集进行训练DCGAN网络,生成数字图像。2.Source code#encoding:utf-8""" Deep Convolutional Generative Adversarial Network (DCGAN).Using deep convolutional generative adversarial networks (DCGAN) to原创 2017-09-13 15:55:48 · 1340 阅读 · 0 评论 -
DeepLearning&Keras学习笔记3__mnist数据集CNN
1.Introduction利用卷积神经网络CNN对Mnist数据集手写数字进行分类。2.Source code#encoding:utf-8'''Trains a simple convnet on the MNIST dataset.Gets to 99.25% test accuracy after 12 epochs(there is still a lot of margin for原创 2017-08-13 20:25:43 · 969 阅读 · 0 评论 -
DeepLearning&Tensorflow学习笔记1__mnist数据集LogisticRegression
1.Introduction使用广义logistic Regression对手写数字识别,数据集Mnist。 模型: P(Y=k|x)=exp(wk∗x)1+∑K−1k=1exp(wk∗x),k=1,2,...,K−1P(Y=k|x)=\frac{exp(w_k*x)}{1+\sum_{k=1}^{K-1}exp(w_k*x)} ,k=1,2,...,K-12.Source code#co原创 2017-08-04 20:39:14 · 906 阅读 · 0 评论 -
caffe相关优化算法、数学函数库、全连层源码阅读
1.优化算法Caffe的solver类提供了6种优化算法,配置文件中可以通过type关键字设置: Stochastic Gradient Descent (type: “SGD”) AdaDelta (type: “AdaDelta”) Adaptive Gradient (type: “AdaGrad”) Adam (type: “Adam”原创 2017-11-21 17:18:51 · 1149 阅读 · 0 评论