![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 78
且行且安~
擅长路径规划、车间调度、港口调度、排班调度等OR优化领域以及机器学习及数分领域,合作需求请见推广栏,请备注来意,不然不通过!
展开
-
神经网络和深度学习初识
前言:这里对神经网络和深度学习不做展开的谈论,只从应用层面大体的聊聊他们的应用,有个大体的认识1.什么是神经网络?咳咳,说了这里不会对其展开谈论。 下面这张图就是一个神经网络系统,它由很多层组成。输入层负责接收信息,比如一只猫的图片。输出层是计算机对这个输入信息的判断结果,它是不是猫。隐藏层就是对输入信息的传递和加工处理。 2.两种广泛应用的D...原创 2018-09-17 15:31:48 · 365 阅读 · 0 评论 -
神经网络DNN的反向传播
前言:在学习一段时间神经网络后,发现自己对神经网络的反向传播还是有点问题,在反过来复习吧,前向传播没有什么费劲的地方,这里就不会过多的阐述。1、单层的反向传播一步步来看,先看看简单的情况,单层的反向传播是理解多层神经网络的基础。基础:梯度与梯度下降算法,前面有讲解过,这里直接给出结论。从这上面看出,这里是以平方为误差来计算的,的导数为,则梯度的负方向为。故直接带到w的方程中。...原创 2018-10-20 21:55:08 · 784 阅读 · 0 评论 -
命名空间name_scope与variable_scope的区别
前言:整理name_scope与variable_scope是因为自己在学习的过程中碰到的一些疑惑,后来看书和网上的一些解释。故这里做一些学习记录。1、大体的认识tf.name_scope()和tf.variable_scope()是两个作用域,一般与两个创建/调用变量的函数tf.variable() 和tf.get_variable()搭配使用。它们搭配在一起的两个常见用途:变量共享...原创 2018-10-16 23:41:24 · 1777 阅读 · 0 评论 -
RNN中利用LSTM来预测sin函数
前言:这个例子是用LSTM来预测sin函数的问题,期间遇到了一个了十分致命的问题,就是构造数据的时候,没有把数据构造成序列,所以一直在报维度上的错误,以后对时序问题的预测要格外注意数据是否是序列的数据,否则很难检查出问题,中间的问题其实比较好看出来,一调试就能解决。这个实例来自于《TensorFlow实战Google深度学习框架》先给出错误的代码示例,以便给自己一个警醒。# !/us...原创 2018-10-19 15:06:34 · 3070 阅读 · 1 评论 -
Tensorflow--卷积神经网络及案例
前言:对于神经网络的理解,基础的是前向传播过程,重难点是反向的传播,无论是卷积神经网络还是循环神经网络,都是需要一定数学功底的,可以经常回顾下一些老师的博客,重点复习下反向传播的过程,这里就只总结下卷积层的操作,并给出一个经典案例来说明卷积神经网络是如何搭建起来的。一、卷积计算层/ CONV layer局部关联。每个神经元看做一个filter。 窗口(receptive field)滑动...原创 2018-10-16 19:50:45 · 1014 阅读 · 0 评论 -
tf.nn,tf.layers, tf.contrib概述
转自:https://blog.csdn.net/u014365862/article/details/77833481我们在使用tensorflow时,会发现tf.nn,tf.layers, tf.contrib模块有很多功能是重复的,尤其是卷积操作,在使用的时候,我们可以根据需要现在不同的模块。但有些时候可以一起混用。 下面是对三个模块的简述: (1)t...转载 2018-10-18 19:50:36 · 1499 阅读 · 0 评论 -
循环神经网络模块函数
前言:在厘清了循环神经网络的基本原理之后,很少会自己去写代码来实现的,我们更多的是直接调用TensorFlow中现有封装好的函数模块,那接下来的问题就是要弄清循环神经网络函数中的一些具体参数的含义。一、tf.nn.rnn_cell.BasicLSTMCell__init__( num_units, forget_bias=1.0, state_is_tuple=T...原创 2018-10-18 17:22:07 · 516 阅读 · 0 评论 -
Tensorflow--循环神经网络及常用函数的理解
前言:在神经网络的学习过程中,让我困惑比较多的是循环神经网络,不仅是循环神经网络比起简单的DNN、CNN理解上更难,而且它的变种也更多,模型函数有很多也很陌生,使得RNN在学习过程中更难,这里的总结更多是结合自己的疑惑来写的。一、循环神经网络RNN简介 循环神经网络并非现今才提出来的,早在1982年就已经有了它的雏形,当时是由Saratha Sathasivam提出的霍普菲尔德网络。...原创 2018-10-17 22:37:33 · 1845 阅读 · 0 评论 -
TensorFlow --卷积神经网络之 tf.nn.conv2d与tf.nn.max_pool
最近在研究学习TensorFlow,在做识别手写数字时,遇到了tf.nn.conv2d这个方法,其中有些方法还不是很清楚,于是网上搜索后,记录如下:卷积神经网络的核心是对图像的“卷积”操作tf.nn.conv2d方法定义tf.nn.conv2d (input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=No...原创 2018-09-26 17:16:25 · 2875 阅读 · 1 评论 -
Tensorflow激活函数--tf.nn.dropout
前言:激活函数(Activation Function)运行时激活神经网络中某一部分神经元,将激活信息向后传入下一层的神经网络。神经网络的数学基础是处处可微的,所以选取激活函数要保证数据输入与输出也是可微的。### 激励函数的作用 如果不使用激活函数,此时激活函数本质上相当于f(x)=ax+b。这种情况下,神经网络的每一层输出都是上层输入的线性函数。不难看出,不论神经网络有多少层,输出与输入都...转载 2018-09-23 21:12:45 · 2516 阅读 · 1 评论 -
Tensorflow一些常用基本概念与函数
摘要:本文主要对tf的一些常用概念与方法进行描述。转载出处:原文链接这篇文章也很好:Tensor数据相关的运算及函数讲解,他拿TensorFlow和numpy做了比较。1、tensorflow的基本运作为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始:import tensorflow as tf #定义‘符号’变量,也称为占位符 a = tf.placeho...转载 2018-09-18 17:06:03 · 249 阅读 · 0 评论 -
Numpy和Tensorflow数据形式对比、点乘和矩阵乘对比
numpy在生成数组的时候,不知道你有没有疑惑,它默认生成的是行向量还是列向量呢?同理,tensorflow呢,它默认生成的数据的又是行向量还是列向量呢,如果对这个比较模糊的话,我自己喜欢钻进死胡同,特别是在矩阵数据运算的过程中,下面我们通过实验来证明。1、Numpy默认维度这部分内容参考:np.newaxis与np.shape的一些细节Numpy默认是行向量import num...转载 2018-09-18 16:08:23 · 4724 阅读 · 1 评论 -
Tensorflow快速入门
前言:目前,深度学习已经广泛应用于各个领域(我在前一节稍微了总结下),比如图像识别,图形定位与检测,无人驾驶,语音识别,情感分析,机器翻译等等,对于这个神奇的领域,很多同学都很向往,作为基础,这里简单介绍下最火的深度学习开源框架 tensorflow。1、Tensorflow快速入门图解2、Tensorflow快速入门2.1Tensorflow的大体认识 Tens...原创 2018-09-18 12:05:34 · 2280 阅读 · 0 评论 -
神经网络中自编码器Autoencoder
什么是自编码器(Autoencoder)自动编码器是一种数据的压缩算法,其中数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。在大部分提到自动编码器的场合,压缩和解压缩的函数是通过神经网络实现的。压缩与解压 假设刚刚那个神经网络是这样, 对应上刚刚的图片, 可以看出图片其实是经过了压缩,再解压的这一道工序. 当压缩的时候, 原有的图片质量被缩减, 解压时用...原创 2018-11-02 17:19:46 · 19782 阅读 · 5 评论