自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 资源 (1)
  • 收藏
  • 关注

转载 深度学习—策略网络

我们前面已经稍微地介绍了强化学习的内容,这一篇我们将简单地介绍一下使用TF和强化学习的方法解决CartPole问题。CartPole的环境中有一辆小车,在一个一维的无阻力轨道上运动,在车上绑着一个连接不太结实的杆,这个杆会左右摇晃。环境信息是一个有4个值的数组,包含了环境的各种信息,包括小车位置,速度,杆的角速度,速度。我们能采取的Action非常简单,就是给小车施加一个正向的或者负向的力。当小车

2017-07-31 19:07:44 8726

原创 深度强化学习简介

强化学习(reinforcement learning)是机器学习的一个重要分支,它是用来解决连续决策的问题。强化学习的应用范围十分广泛,几乎包括了所有需要做一系列决策的问题,例如控制电击让它执行特定任务,玩棋牌游戏(AlphaGo)等。它能应用到有序列输出的问题中,即针对一系列变化的环境状态,输出一系列对应的最优的行动,围棋就是典型的例子。

2017-07-29 21:59:24 937

原创 经典的神经网络-VGGNet

VGGNet是牛津大学计算机视觉组(Visual Geometry Grouop)和Google DeepMind公司的研究员一起研发的深度卷积神经网络。该网络通过反复堆叠3*3的卷积核和2*2的最大池化层,构建了16~19层卷积神经网络(有多个版本)。VGGNet训练时使用了4块Geforce GTX Titan GPU并行计算,也要耗时2~3周才能训练完。因此,我们依然不训练数据,而是构造出V

2017-07-26 11:31:18 1167

原创 经典的卷积神经网络-AlexNet

经过了高强度的几轮学习之后,我们可以稍微放松一下,来看看近几年来掀起了机器学习的一些经典卷积神经网络们。我们将依次介绍AlexNet,VGGNet,Google InceptionNet和ResNet.这几个神经网络是近年来ILSVRC比赛的杰出表现者,而且主要突破点都是在深度学习和神经网络。成绩的大幅度提升几乎都是伴随着卷积神经网络的层数加深,15年的冠军ResNet甚至用了152个隐层。因而,

2017-07-24 09:56:44 795

原创 TensorFlow实现进阶的神经网络

很抱歉!本应该昨天就更新的,无奈遇到了比较棘手的问题,好在经过不懈的努力,还算是比较幸运地解决了问题。本次我们要使用的大名鼎鼎的CIFAR-10的数据集,这个集合里面包括十种类别,airplane,automobile,bird,cat,deer,dog,frog,horse,ship,truck,共有6w张32*32的图片,其中训练集5w,测试集1w。TF中是有自带的py文件能够下载这些数据,但

2017-07-22 09:43:26 612 2

原创 TensorFlow实现简单的卷积网络

上一篇的卷积神经网络的介绍,大概把很多同学都看懵了,好在这一篇的代码,配合弟弟手画的示意图(感觉很有诚意的样子),阅读起来还算ok,并有助于我们去真正理解卷积网络。我们将使用TF建立一个拥有两个卷积层和一个全连接层的非常具有代表性的卷积网络。      上图是这个卷积网络的数据流图,我们可以边写代码边看这个图,就能很清晰地理解卷积网络的结构。代码如下。from tensorflow.e

2017-07-19 11:05:25 446 2

原创 卷积神经网络简介

之所以单独列出一篇文章来讲述卷积神经网络的原理,是因为如果像之前一样,把代码和原理结合起来,由于卷积神经网络有更多的抽象的理论,学习理解起来将会碰到很多麻烦。这一篇简介依然是从‘’Tensorflow’的角度来介绍卷积神经网络,这么说是因为,当你认真看完第一遍这简介之后,懵懵懂懂,不知所然;再结合下一篇的TF实现卷积神经网络的代码,我认为一定能够对卷积神经网络产生更加理性的认识。那么开车惹。 

2017-07-18 10:43:28 635

原创 常见的神经网络的优化方法

上一篇博客使用了TF建立了一个基本的拥有一层隐含层的神经网络。我们感到激动不已!(- -!)不过(根据前人不断地试验和总结)神经网络有那么几个明显的缺点。我们接下来将对上一篇的代码进行适当修改,再进一步提高准确率。前面的定义是一样的,这里不再赘述。from tensorflow.examples.tutorials.mnist import input_dataimport tensor

2017-07-16 20:58:45 2468 1

原创 使用TensorFlow定义拥有一个隐藏层的神经网络

咳咳,我们已经搞定了softmax regression模型,但是在测试集上的准确度确实不如人意,很气……我们已经不满足于仅仅建立一个模型了,我们现在需要更高精度的学习模型。现在尝试着在模型里面添加一层隐藏层吧!数据还是手写字体的数据,先看看拥有一层隐藏层的神经网络(多层感知机也叫)示意图吧!    Boom!博主懒得网上找图了,直接动手……原谅我笨拙的字体和手法……接下去我们看看数据流图,就

2017-07-14 10:39:37 4873

原创 使用Tensorflow实现Softmax Regression

今天我们将使用tensorflow自带的手写数字数据,来训练一个softmax regression的模型。这应该是机器学习领域的入门级任务。

2017-07-13 11:10:43 549

原创 TensorFlow定义一个线性分类模型

今天我们要用TF定义一个线性分类模型。线性分类模型可以说是最最基础的机器学习模型了。如果还有印象的话,高中时候,我们应该就学过用‘最小二乘法’对一系列(x,y)数据拟合出一条线性表达式,y=kx+b.不过今天我们做的模型难度要再提升一些:如果,其中的x是作为一个多维向量,具有多维的特征呢?这就是“多元线性回归”。那么我们一步一步来解释如何从零构建y=wx+b模型吧!这里的w是一个矩阵。im

2017-07-11 20:46:03 1623

原创 Hello_TensorFlow!

第一趟车,粗发啦~正式学习之前,我们得先把TensorFlow安装好。原谅博主的不专业,为了能让最多人能够接触到TensorFlow,我使用的是Windows版本的Python3.6.1(欢呼吧!)使用的是PyCharm Community Edition(python编程神器,使用第三方库的时候真的很省事,谁用谁知道)按照如下图所示,注意,博主的TF安装的是CPU版的(之后需要大量计算的时候

2017-07-10 10:30:59 761

原创 Hello_the_CSDN!

许多程序员在学习代码时,都建议建立一个属于自己的博客,这样一方面能够把自己所学的点点滴滴记录下来,另一方面只有当你以“教授他人”的身份去阐述一段代码的时候,你才是真正的学会并理解了这些内容。为了提高学习和编程的效率,故于2017.7.9建立了这个博客,仅仅是为了学习交流所用。欢迎转载,请注明出处,谢谢。博主目前是一名学生,致力于探索机器学习领域,这一系列的博客

2017-07-09 16:54:53 278

所写博客的相应代码

博客的关于使用TensorFlow实现神经网络的内容

2017-08-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除