- 博客(16)
- 资源 (34)
- 收藏
- 关注
转载 TensorFlow学习--卷积神经网络CNN
转载地址:深度学习之卷积神经网络CNN及tensorflow代码实现示例http://blog.csdn.net/cxmscb/article/details/71023576一、CNN的引入在人工的全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连的。当输入层的特征维度变得很高时,这时全连接网络需要训练的参数就会增大很多,计算速度就会变得很慢,例如一
2017-06-30 11:21:55 4962
原创 Linux下安装tensorflow
安装前提:已经安装了anaconda3。1、利用Anaconda创建一个python3.6的环境,环境名称为tensorflow ,输入下面命令:conda create –n tensorflow python=3.6。如下图所示,已经创建成功。2、启动tensorflow环境,使用命令:source activate tensorflow3、使用pip installt
2017-06-29 13:31:03 446
原创 Win7下安装tensorflow
安装前提:已经安装了Anaconda3(我安装的是Anaconda3-4.2.0-Windows-x86_64.exe)。TensorFlow目前在Windows下只支持Python 3.5版本。1、进入电脑的开始菜单中找到Anaconda3(64-bit),然后点击下面的Anaconda Prompt。 我们要在Anaconda Prompt中利用Anaconda创建
2017-06-29 13:11:25 444
原创 Win7下安装Sqlite3
Sqlite官网地址:http://www.sqlite.org/Sqlite3文件下载:1.下载 sqlite-dll-win32-x86-3190300.zip和sqlite-tools-win32-x86-3190300.zip安装:先在C盘建一个文件夹 sqlite,1.把 sqlite-dll-win32-x86-3190300.zip中解压出来的两个文件(sql
2017-06-28 10:39:14 1789
原创 Win7下Anaconda2和Anaconda3共存可以使用pip命令
在python学习的过程中,python2和python3都可能会用到,所以在本地win7下同时安装了Anaconda2和Anaconda3,系统环境变量默认是Anaconda2的路径,两个版本在独立的两个目录下。但 在使用pip命令安装python3的新的包时,即使改了我的电脑上path环境变量也不生效,每次安装都默认安装在了Anaconda2的目录下。后经过查询,按照下面方法重新安装后,问题就
2017-06-27 17:40:54 1858 1
原创 TensorFlow学习---tf.nn.dropout防止过拟合
一、 Dropout原理简述:tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示意图如下
2017-06-23 16:15:17 64960 13
转载 TensorFlow学习---tf.nn.softmax_cross_entropy_with_logits的用法
转载博客:http://blog.csdn.net/mao_xiao_feng/article/details/53382790在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross
2017-06-21 16:44:50 485
转载 TensorFlow学习---基础概念和程序的形式
转载博客:http://blog.csdn.net/phdat101/article/details/523506111.概念graph:图,表示具体的计算任务session:会话,图需要在会话中执行,一个会话可以包含很多图tensor:张量,在此表示数据,类型是numpy::ndarrayvariable:就是本意变量,图的重要组成
2017-06-21 16:14:16 361
转载 TensorFlow学习---tf生成数据的方法
正常情况下,使用tf.initialize_all_variables()初始化变量,在完全构建好模型并加载之后才运行这个操作。生成数据的主要方法如下1)如果需要利用已经初始化的参数给其他变量赋值TF的变量有个initialized_value()属性,就是初始化的值,使用方法如下: 1 2 3 4 5 6#
2017-06-21 16:08:06 1244
转载 TensorFlow学习---tf.nn.max_pool实现池化操作
max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似有些地方可以从卷积去参考【TensorFlow】tf.nn.conv2d是怎样实现卷积的? tf.nn.max_pool(value, ksize, strides, padding, name=None)参数是四个,和卷积很类似:第一个参数value:需要池化的输入,一般池化层接在
2017-06-21 15:33:23 860
原创 TensorFlow学习---tf.nn.conv2d实现卷积操作
tf.nn.conv2d是TensorFlow里面实现卷积的函数。tf.nn.conv2d(input, filter, strides,padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch,in_h
2017-06-21 15:09:15 3446
转载 神经网络浅讲
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向–深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术
2017-06-20 21:13:41 652
转载 CNN笔记:通俗理解卷积神经网络
通俗理解卷积神经网络(cs231n与5月dl班课程笔记)http://blog.csdn.net/v_july_v/article/details/518124591 前言 2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北
2017-06-20 20:59:40 517
原创 卷积神经网络学习--卷积和池化
卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC。本文主要针对卷积层和池化层涉及的技术进行学习和整理,有理解的不对的地方希望能给指出,谢谢。卷积卷积层是用来进行特征提取的。下面就举一个简单例子来说明在卷积层是如何进行特征提取的。下图中的5*5矩阵A,是一副图像的像素值,使用一个3*3的卷积核(矩阵B)在
2017-06-19 17:21:10 10167
原创 决策树算法及python实现
1 什么是决策树决策树(Decision Tree)是一种基本的分类与回归方法,本文主要讨论分类决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对数据进行分类的过程。它可以认为是if-then规则的集合。每个内部节点表示在属性上的一个测试,每个分支代表一个测试输出,每个叶节点代表一种类别。 决策树的优点: 1)可以自学习。在学习过程中不需要使用者了解过多的背景知识,只需要对训练数据...
2017-06-13 11:48:21 33217 22
apache-freemarker-2.3.27-incubating-bin.tar.gz
2018-01-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人