![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI
文章平均质量分 72
abiggg
这个作者很懒,什么都没留下…
展开
-
(Tensorflow之二)张量、会话、向前传播
一、张量张量本身只是一个计算的过程,不会存储结果;例如:a = tf.constant(30)b = tf.constant(20)c = a + bprint(c)结果:Tensor(“add:0”, shape=(), dtype=int32)二、会 话(session)前面所说的张量只是一个过程,若要获得计算结果,则需创建会原创 2017-12-21 01:09:13 · 493 阅读 · 0 评论 -
(Tensorflow之十五)python抓取百度图片
图像识需要大量的图片来进行训练,从网上找了一个实例,采用python网络抓取各类的百度图片,在此分享一下。import requestsimport osdef getManyPages(keyword,pages): params=[] for i in range(30,30*pages+30,30): params.append({原创 2018-01-20 00:19:47 · 831 阅读 · 0 评论 -
(无人驾驶之一)无人驾驶系统的软件架构
一、整体架构 基于本人对无人驾驶系统的理解,对无人驾驶系统的软件架构进行分层,大致分别以下3层:感知层、决策层与控制层。二、感知层感知层主要是通过各种传感器以及高精度地图实现,包含车辆的定位以及对物体的识别。 车辆的定位主要是通过光雷达(LiDar)、GPS、惯性传感器、高精度地图等等信息进行综合,从而得出车辆的准确位置,其定位精度甚至可达cm级别; 物体的识别主要采用光雷达以及双目摄像头实原创 2018-02-24 01:05:13 · 15604 阅读 · 0 评论 -
(无人驾驶之二)感知层的传感器---LIDAR、GPS、惯性传感器、双目摄像头
一、LIDAR(光雷达)1.1 原理激光雷达对物体距离的测量与通常所说的雷达类似,都是通过测量发送和接受到的脉冲信号的时间间隔来计算物体的距离。因此,由于原理上的相似性,尽管雷达的准确定义是使用微波或无线电波等波长较长的电磁波进行检测测距的设备,激光雷达这一术语仍然被广泛使用。1.2 优点与传统雷达相比:采用激光测矩,波长在600~1000nm,测量更加精准,可达厘米级别; 可感知物体矩离及表面形原创 2018-02-24 01:55:33 · 4170 阅读 · 0 评论 -
(常用算法2)矩估计与最大似然估计
估计:即是通过已知样本求出未知的整体参数;一、矩估计矩的概念设有自然数k,常数a,随机变量x,则E(x−a)kE(x-a)^k称之为随机变量x基于常数a的k阶矩;当常数a = 0时,则称之为原点矩;矩估计方法即通过上述k阶矩的方法估计整体的范围。例:通过一阶矩与二阶矩估计整体设总体X服从区间[a,b]的均均分布,a、b未知,x1、x2...xnx_1、x_2...x_n是X的样本值,求a,b;原创 2018-03-11 13:29:29 · 5596 阅读 · 0 评论 -
(Tensorflow之十七)np.argmax(tf.argmax)的使用
一维数组一维数组使用np.argmax返回的是数组内最大值的下标位置import numpy as npy1 = np.array([1,2,3,7,8,9])y1 = np.argmax(y1)print("the y1 is")print(y1)结果the y1 is5二维数组2.1 不指定axis返回值是数组内的最大值的下标,以一维形式计算 例:y2 = np.array([[1,2原创 2018-02-25 01:54:22 · 1480 阅读 · 0 评论 -
(Tensorflow之十八)tf.nn.l2_normalize的使用
tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None) 上式: x为输入的向量; dim为l2范化的维数,dim取值为0或0或1; epsilon的范化的最小值边界;按例计算例1:import tensorflow as tfinput_data = tf.constant([[1.0,2,3],[4.0,5,6],[7.0,8,9]])o原创 2018-02-25 15:11:48 · 44890 阅读 · 12 评论 -
(Tensorflow之二十一)python常用库文件
1、import numpy as npnumpy无需多说,应该是运用最多的了。在大阵的矩阵运算中优势十分明显;2、import tensorflow as tfGoogle 开发的第二代人工智能学习系统,搞AI的应该第一行代码就是这个了;3、import os.pathos.path模块主要用于文件的属性获取。例:3.1 os.path.dirname(path) 返回路径>>> os.path.原创 2018-03-18 03:38:55 · 2097 阅读 · 1 评论 -
(Tensorflow之十九)tf.variable_scope的命名空间管理
一、tf.variable与tf.get_variable生成变量的方法val = tf.variable(tf.constant(1.0,shape=[1],name="val"))val = tf.get_variable("val",1.0,shape=[1],initializer = tf.constant_initializer(1.0))这两种方法生成变量的方法几乎是等效的,区别是:原创 2018-03-04 23:56:19 · 517 阅读 · 2 评论 -
(tensorflow之二十)TensorFlow Eager Execution立即执行插件
一、安装有GPU的安装docker pull tensorflow/tensorflow:nightly-gpudocker run --runtime=nvidia -it -p 8888:8888 tensorflow/tensorflow:nightly-gpu无GPU的安装docker pull tensorflow/tensorflow:nightlydocker run -it -p原创 2018-03-05 01:17:54 · 1259 阅读 · 0 评论 -
(Tensorflow之二十二)将mnist数据转变成图片格式
在用mnist进行图片训练时,我们mnist的格式为.gz格式的,因此训练的过程并不直观。在此,将mnist的数据转变成图片格式,便于我们观察数据在训练过程中的变化。step 1将原.gz格式的数据进行解压$gunzip train-images-idx3-ubyte.gz解压后的文 件 step 2采用如下代码解析图片,图片的训练集与测试集分开存放,图片名与图片...原创 2018-03-23 01:07:51 · 2084 阅读 · 1 评论 -
(Tensorflow之十)tf.control_dependencies()用法
先看一下官方API文档control_dependencies是用于控制计算流图的先后顺序的。必需先完成control_input的计算,才能执行之后定义的context。但是,tensorflow是顺序执行的,为什么还需control_dependecies呢?原因在实际训练中,大多是以一个BATCH_SIZE大小来训练。因此需循环地去刷新前面所定义的变量。而采用control_原创 2018-01-10 01:36:49 · 4158 阅读 · 3 评论 -
[Tensorflow之九]Tensorflow模型的保存与加载
一、保存模型例:import tensorflow as tfvar1 = tf.Variable(tf.constant(1.0,shape=[1]),name='num1')var2 = tf.Variable(tf.constant(2.0,shape=[1]),name='num2')var = var1 +var2#定义存储器saver = tf.train.原创 2018-01-08 23:52:03 · 330 阅读 · 0 评论 -
(Tensorflow之十四)图像预处理
原图像图像加载原码:import matplotlib.pyplot as pltimport tensorflow as tfimage_path = "/xxx/timg.jpeg"image_data = tf.gfile.FastGFile(image_path,'r').read()with tf.Session() as sess: image_data = tf.imag原创 2018-01-16 23:55:55 · 1343 阅读 · 0 评论 -
(Tensorflow之七)L1_regularizer与L2_regularizer正则化
一、源码import tensorflow as tfa = tf.constant([2.0,3.0,4.0])b = tf.contrib.layers.l1_regularizer(1.0)(a)c = tf.contrib.layers.l2_regularizer(1.0)(a)with tf.Session() as sess: print(sess.run(原创 2018-01-01 22:01:55 · 12145 阅读 · 0 评论 -
(Tensorflow之三)神经网络程序一
import tensorflow as tffrom numpy.random import RandomState#输入层(设有3个输入变量1x3)rdm = RandomState(1)IN = rdm.rand(10000,3) #随机生层10个3维数组,取值范围在0~1之间;x =tf.placeholder(tf.float32,shape=(None,3),name='x原创 2017-12-26 02:17:39 · 387 阅读 · 0 评论 -
(Tensorflow之四)激活函数、交叉熵及优化器
一、激活函数激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么该网络仅能够表达线性映射,此时即便有再多的隐藏层,其整个网络跟单层神经网络也是等价的。因此也可以认为,只有加入了激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。 那么激活函数应该具有什么样的性质呢?可微性: 当优化方法是基于梯度的时候,这个性质是必须的。 单调性: 当激活函数是单调的时候,单层网络能够保证原创 2017-12-27 01:26:00 · 1794 阅读 · 0 评论 -
(Tensorflow之六)滑动平均模型ExponentialMovingAverage
1、计算方法设{a1,a2,a3,...,an}\{a_1,a_2,a_3,...,a_n\},其衰减率为decaydecay,对应的影子变量为: {m1,m2,m3,...,mn}\{m_1,m_2,m_3,...,m_n\},则: mn=decay∗mn−1+(1−decay)∗anm_n = decay*m_{n-1}+(1-decay)*a_n 可以展开来分析: m1=a1m_1 =原创 2018-01-01 16:19:27 · 2409 阅读 · 1 评论 -
(Tensorflow之十六)采用Opencv对图像批量处理——灰度化+裁剪(python)
在Tensorflow之十五讲到采用python网络爬虫批量抓取图像,然而,由于抓取的图像尺寸不一,同时大多为RGB三通道的图像,因此需对图像进行处理。本文采用Opencv对的图像进行处理。首先将图像转为灰度图,采用物体检测的方法,抓取图像中的物体,裁剪成250x250尺寸的图像。一、Opencv图像处理过程1.1 读取原图import cv2import numpy as np input_原创 2018-01-21 09:54:53 · 15904 阅读 · 8 评论 -
(Tensorflow之十一)cnn卷积神经网络LeNet-5模型以及卷积核的计算
一、基本结构二、层次功能2.1 卷积层(filter)(1)卷积层主要是用于局部特征的提取。可以这么简单的理解:图像是由一个个像素点组成的,倘若以每个像素点进行分析,则一方面运算量较大,另一方面,容易陷于过拟合,无法很好的进行预测分析;若将图像分成一个个小块进行分析,则可以获得一些简单的局部特征,不仅可以降低运算量,同时也可避免过拟合;而这一个个小块,我们称之过滤器filter(或感受野),一般过...原创 2018-01-11 01:39:35 · 1231 阅读 · 1 评论 -
(tensorflow之十二)tensorflow与numpy函数的选择(以reshape为例)
tensorflow与numpy均提供了强大的矩阵运算功能,很多矩阵的运算函数功能是重复的。那什么时候选择用tensorflow,什么时候选择用numpy呢?这个的选择需正确的理解tensorflow与numpy计算过程的区别。tensorflow的计算一般可分成两个阶段:第一阶段,定义所有的计算过程,即计算流图。在这个阶段,所有的变量均无实际参数值,仅仅表示一个计算过程;原创 2018-01-13 23:37:40 · 9099 阅读 · 2 评论 -
(tensorflow之十三)random_normal与truncated_normal
一、random_normal与truncated_normal模型tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) shape:1-D向量 mean :均值,默认为0,即正态分布中的μ\mu stddev :标准差,默认为1,即正态分布中的σ\sigma seed :原创 2018-01-14 02:11:30 · 1864 阅读 · 0 评论 -
(Tensorflow之八)MNIST数字识别源码--实战Google深度学习框架5.2小节
针对原书本的一点小bug进行了修改,直接贴上源码,供大家参考训练集与测试集的模型需手动下载,下载地址:http://yann.lecun.com/exdb/mnist/import tensorflow as tf#引入tf中的tffrom tensorflow.examples.tutorials.mnist import input_data#相关常数INPUT_N原创 2018-01-05 00:46:12 · 663 阅读 · 0 评论 -
(Tensorflow之二十三)BATCH_SIZE的计算方法以及取值方法
一、BATCH_SIZE对计算参数的影响BATCH_SIZE的主要影响到loss以及反向传播时的递度计算;在同一批次的训练中,loss及反向传播梯度为单个loss及反向传播递度的平均值。二、BATCH_SIZE选取当BATCH_SIZE过小例,当BATCH_SIZE为1时,相邻的两个样本之间差异非常大,则会使梯度值过大,导致始终无法收敛; 当BATCH_SIZE过大一方面,计算机内存消耗大,可以无原创 2018-03-25 23:27:38 · 7611 阅读 · 0 评论