自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (1)
  • 收藏
  • 关注

转载 CS231n课程笔记翻译:图像分类笔记(上)

原文地址: http://cs231n.github.io/classification/转自: https://zhuanlan.zhihu.com/p/20894041这是一篇介绍性教程,面向非计算机视觉领域的同学。教程将向同学们介绍图像分类问题和数据驱动方法。下面是内容列表:图像分类、数据驱动方法和流程 Nearest Neighbor分类器 k-Nearest Neighbor 译者

2017-08-23 09:38:08 253

转载 1.2近邻分类器分类Cifar10图像数据集(上)

1.2近邻分类器分类Cifar10图像数据集(上)

2017-08-23 09:27:37 671

转载 1.1数据驱动的图像分类流程

1.1数据驱动的图像分类流程

2017-08-23 08:50:53 419

翻译 梯度下降算法优化综述An overview of gradient descent optimization algorithms

原文地址:https://arxiv.org/pdf/1609.04747.pdf参考:https://www.leiphone.com/news/201706/e0PuNeEzaXWsMPZX.html梯度下降算法优化综述Insight Centre for Data Analytics, NUI Galway Aylien Ltd., Dublin ruder.sebastian@gmail

2017-08-17 11:16:31 1237

原创 TensorFlow深度学习优化器Optimizer

参考: http://blog.csdn.net/xierhacker/article/details/53174558 https://www.leiphone.com/news/201706/e0PuNeEzaXWsMPZX.html https://arxiv.org/pdf/1609.04747.pdf http://www.redcedartech.com/pdfs/Select_

2017-08-17 10:31:05 367

原创 TensorFlow 训练 MNIST 数据

参考: http://blog.csdn.net/willduan1/article/details/52024254这个是用一个简单的 Softmax 回归来进行训练的代码from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tf#MNIST数据输入 mnist = input_data

2017-08-16 11:23:16 257

原创 MNIST数字识别

参考: http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.htmlMNIST数据集MNIST是一个入门级的计算机视觉数据集,它包含各种手写数字图片。MNIST数据集的官网是Yann LeCun’s websiteMNIST下载地址和内容: 网址 内容 train-images-idx3-

2017-08-16 09:43:39 642

原创 深度学习-梯度下降

参考: https://yjango.gitbooks.io/superorganism/content/ti_du_xia_jiang_xun_lian_fa.html梯度下降训练法如何训练:既然我们希望网络的输出尽可能的接近真正想要预测的值。那么就可以通过比较当前网络的预测值和我们真正想要的目标值,再根据两者的差异情况来更新每一层的权重矩阵(比如,如果网络的预测值高了,就调整权重让它预测低一些

2017-08-15 17:38:36 844

原创 TensorFlow损失函数(loss function)

神经网络模型的效果及优化的目标是通过损失函数来定义的。1、经典损失函数分类问题和回归问题是监督学习的两大种类。分类问题常用方法:交叉熵(cross_entropy),它描述了两个概率分布之间的距离,当交叉熵越小说明二者之间越接近。它是分类问题中使用比较广的一种损失函数。 给定两个概率分布p和q,通过q来表示p的交叉熵为: H(p,q)=−∑xp(x)logq(x)H(p,q)=-\sum_x p

2017-08-14 11:32:33 30813 1

原创 深度神经网络及TensorFlow实现1-激活函数(Activation Function)2

3.TensorFlow激活函数使用激活函数activation function 运行时激活神经网络中某一部分神经元,将激活信息向后传入下一层的神经网络。神经网络之所以能解决非线性问题(入语音、图像识别),本质上就是激活函数加入了非线性因素,弥补了线性模型的表达力,把“激活的神经元的特征”通过函数保留并映射到下一层。 因为神经网络的数学基础是处处可微的,所以选取的激活函数要能保证数据输入与输出

2017-08-12 22:02:56 1771

翻译 《Noisy Activation Function》噪声激活函数

原文:https://arxiv.org/pdf/1603.00391v3.pdf 参考: http://blog.csdn.net/yhl_leo/article/details/51736830Noisy Activation Functions是ICML 2016年新发表的一篇关于激活函数的论文,其中对以往的激活函数进行了深入的分析,并提出了训练过程中添加噪声的新方法,效果不错,觉得很有意

2017-08-11 16:35:21 1357

原创 深度神经网络及TensorFlow实现1-激活函数(Activation Function)

1、线性模型先看个TensorFlow游乐场的例子,来验证线性模型的局限性。以判断零件是否合格为例,输入为x1x_1和x2x_2,其中x1x_1代表一个零件质量和平均质量的差,x2x_2代表一个零件长度和平均长度的差。假设一个零件的质量和长度离平均质量和长度越近,那么这个零件越有可能合格。于是训练数据有可能服从下图所示分布。上图蓝色代表合格零件,黄色代表不合格零件。1 下图显示了使用TensorF

2017-08-11 15:50:44 4595

翻译 计算图运算:反向传播算法(BP)

原文地址:http://colah.github.io/posts/2015-08-Backprop/计算图运算:BP发布于2015年8月31日Introduction简介:Backpropagation is the key algorithm that makes training deep models computationally tractable. For modern neural

2017-08-09 11:31:40 1856

原创 深度学习及TensorFlow实现-深度前馈网络(deep feedforword network)

参考: http://shartoo.github.io/deepfeedforwardnn/

2017-08-08 09:31:16 625

原创 TensorFlow基础知识6-可视化(TensorBoard)

参考: http://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/summaries_and_tensorboard.htmlhttp://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/graph_viz.html

2017-08-06 15:28:46 377

原创 TensorFlow基础知识5-会话(session)

1、会话简介会话在之前的文章中也使用过,这里做一个详细介绍。构造阶段完成后, 才能启动图。启动图的第一步是创建一个 Session 对象, 如果无任何创建参数, 会话构造器将启动默认图。会话会管理TensorFlow程序运行时的所有资源。当所有计算完成之后需要关闭会话来帮助系统回收资源,否则就可能出现资源泄露的问题。TensorFlow中使用会话的模式一般有两种: 1、需要明确调用会话生成函数和关

2017-08-06 11:47:50 10219

原创 TensorFlow基础知识3-操作

运算操作的相关知识点一个运算操作代表了一种类型的抽象运算,比如矩阵乘法或者向量加法。 一个运算操作可以有自己的属性,但是所有属性都必须被预先设置,或者能够在创建计算图时根据上下文推断出来。 通过设置运算操作的属性可以用来支持不同的tensor元素类型,比如让向量加法支持浮点或者整数。 运算核(kernel)是一个运算操作在某个具体的硬件(比如cpu或者gpu中)的实现。 在Tenso

2017-08-02 20:51:02 4847

原创 TensorFlow基础知识2-张量

张量是什么?张量是TensorFlow管理数据的形式。在TensorFlow程序中,所有数据都是通过张量的形式来表示的。张量是TensorFlow中运算结果的引用,在张量中并没有真正保存数字,它保存的是如何得到这些数字的计算过程。 如下代码不会得到加法的结果,而是得到对结果的一个引用。import tensorflow as tfa = tf.constant([1.0, 2.0], name=

2017-08-01 22:20:38 982

HxSkin.zip

Android 动态换肤实现,模仿网易云音乐,简单易懂,值得学习!

2019-07-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除