什么时候用神经网络模型,长短期神经网络模型

卷积神经网络训练mnist时间多久

谷歌人工智能写作项目:神经网络伪原创

一般神经网络要训练多久

tensorflow 训练一个神经网络 需要多长时间

基本使用使用TensorFlow,你必须明白TensorFlow:使用图(graph)来表示计算任务.在被称之为会话(Session)的上下文(context)中执行图.使用tensor表示数据.通过变量(Variable)维护状态.使用feed和fetch可以为任意的操作(arbitraryoperation)赋值或者从其中获取数据.综述TensorFlow是一个编程系统,使用图来表示计算任务.图中的节点被称之为op(operation的缩写).一个op获得0个或多个Tensor,执行计算,产生0个或多个Tensor.每个Tensor是一个类型化的多维数组.例如,你可以将一小组图像集表示为一个四维浮点数数组,这四个维度分别是[batch,height,width,channels].一个TensorFlow图描述了计算的过程.为了进行计算,图必须在会话里被启动.会话将图的op分发到诸如CPU或GPU之类的设备上,同时提供执行op的方法.这些方法执行后,将产生的tensor返回.在Python语言中,返回的tensor是numpyndarray对象;在C和C++语言中,返回的tensor是tensorflow::Tensor实例.计算图TensorFlow程序通常被组织成一个构建阶段和一个执行阶段.在构建阶段,op的执行步骤被描述成一个图.在执行阶段,使用会话执行执行图中的op.例如,通常在构建阶段创建一个图来表示和训练神经网络,然后在执行阶段反复执行图中的训练op.TensorFlow支持C,C++,Python编程语言.目前,TensorFlow的Python库更加易用,它提供了大量的辅助函数来简化构建图的工作,这些函数尚未被C和C++库支持.三种语言的会话库(sessionlibraries)是一致的.构建图构建图的第一步,是创建源op(sourceop).源op不需要任何输入,例如常量(Constant).源op的输出被传递给其它op做运算.Python库中,op构造器的返回值代表被构造出的op的输出,这些返回值可以传递给其它op构造器作为输入.TensorFlowPython库有一个默认图(defaultgraph),op构造器可以为其增加节点.这个默认图对许多程序来说已经足够用了.阅读Graph类文档来了解如何管理多个图.importtensorflowastf#创建一个常量op,产生一个1x2矩阵.这个op被作为一个节点#加到默认图中.##构造器的返回值代表该常量op的返回值.matrix1=tf.constant([[3.,3.]])#创建另外一个常量op,产生一个2x1矩阵.matrix2=tf.constant([[2.],[2.]])#创建一个矩阵乘法matmulop,把'matrix1'和'matrix2'作为输入.#返回值'product'代表矩阵乘法的结果.product=tf.matmul(matrix1,matrix2)默认图现在有三个节点,两个constant()op,和一个matmul()op.为了真正进行矩阵相乘运算,并得到矩阵乘法的结果,你必须在会话里启动这个图.在一个会话中启动图构造阶段完成后,才能启动图.启动图的第一步是创建一个Session对象,如果无任何创建参数,会话构造器将启动默认图.欲了解完整的会话API,请阅读Session类.#启动默认图.sess=tf.Session()#调用sess的'run()'方法来执行矩阵乘法op,传入'product'作为该方法的参数.#上面提到,'product'代表了矩阵乘法op的输出,传入它是向方法表明,我们希望取回#矩阵乘法op的输出.##整个执行过程是自动化的,会话负责传递op所需的全部输入.op通常是并发执行的.##函数调用'run(product)'触发了图中三个op(两个常量op和一个矩阵乘法op)的执行.##返回值'result'是一个numpy`ndarray`对象.result=(product)printresult#==>[[12.]]#任务完成,关闭会话.sess.close()Session对象在使用完后需要关闭以释放资源.除了显式调用close外,也可以使用"with"代码块来自动完成关闭动作.withtf.Session()assess:result=([product])printresult在实现上,TensorFlow将图形定义转换成分布式执行的操作,以充分利用可用的计算资源(如CPU或GPU).一般你不需要显式指定使用CPU还是GPU,TensorFlow能自动检测.如果检测到GPU,TensorFlow会尽可能地利用找到的第一个GPU来执行操作.如果机器上有超过一个可用的GPU,除第一个外的其它GPU默认是不参与计算的.为了让TensorFlow使用这些GPU,你必须将op明确指派给它们执行.with...Device语句用来指派特定的CPU或GPU执行操作:withtf.Session()assess:withtf.device("/gpu:1"):matrix1=tf.constant([[3.,3.]])matrix2=tf.constant([[2.],[2.]])product=tf.matmul(matrix1,matrix2)...设备用字符串进行标识.目前支持的设备包括:"/cpu:0":机器的CPU."/gpu:0":机器的第一个GPU,如果有的话."/gpu:1":机器的第二个GPU,以此类推.阅读使用GPU章节,了解TensorFlowGPU使用的更多信息.交互式使用文档中的Python示例使用一个会话Session来启动图,并调用()方法执行操作.为了便于使用诸如IPython之类的Python交互环境,可以使用InteractiveSession代替Session类,使用()和()方法代替().这样可以避免使用一个变量来持有会话.#进入一个交互式TensorFlow会话.importtensorflowastfsess=tf.InteractiveSession()x=tf.Variable([1.0,2.0])a=tf.constant([3.0,3.0])#使用初始化器initializerop的run()方法初始化'x'()#增加一个减法subop,从'x'减去'a'.运行减法op,输出结果sub=(x,a)print()#==>[-2.-1.]TensorTensorFlow程序使用tensor数据结构来代表所有的数据,计算图中,操作间传递的数据都是tensor.你可以把TensorFlowtensor看作是一个n维的数组或列表.一个tensor包含一个静态类型rank,和一个shape.想了解TensorFlow是如何处理这些概念的,参见Rank,Shape,和Type.变量Variablesformoredetails.变量维护图执行过程中的状态信息.下面的例子演示了如何使用变量实现一个简单的计数器.参见变量章节了解更多细节.#创建一个变量,初始化为标量0.state=tf.Variable(0,name="counter")#创建一个op,其作用是使state增加1one=tf.constant(1)new_value=(state,one)update=tf.assign(state,new_value)#启动图后,变量必须先经过`初始化`(init)op初始化,#首先必须增加一个`初始化`op到图中.init_op=tf.initialize_all_variables()#启动图,运行opwithtf.Session()assess:#运行'init'op(init_op)#打印'state'的初始值print(state)#运行op,更新'state',并打印'state'for_inrange(3):(update)print(state)#输出:#0#1#2#3代码中assign()操作是图所描绘的表达式的一部分,正如add()操作一样.所以在调用run()执行表达式之前,它并不会真正执行赋值操作.通常会将一个统计模型中的参数表示为一组变量.例如,你可以将一个神经网络的权重作为某个变量存储在一个tensor中.在训练过程中,通过重复运行训练图,更新这个tensor.Fetch为了取回操作的输出内容,可以在使用Session对象的run()调用执行图时,传入一些tensor,这些tensor会帮助你取回结果.在之前的例子里,我们只取回了单个节点state,但是你也可以取回多个tensor:input1=tf.constant(3.0)input2=tf.constant(2.0)input3=tf.constant(5.0)intermed=(input2,input3)mul=(input1,intermed)withtf.Session()assess:result=([mul,intermed])printresult#输出:#[array([21.],dtype=float32),array([7.],dtype=float32)]需要获取的多个tensor值,在op的一次运行中一起获得(而不是逐个去获取tensor)。

Feed上述示例在计算图中引入了tensor,以常量或变量的形式存储.TensorFlow还提供了feed机制,该机制可以临时替代图中的任意操作中的tensor可以对图中任何操作提交补丁,直接插入一个tensor.feed使用一个tensor值临时替换一个操作的输出结果.你可以提供feed数据作为run()调用的参数.feed只在调用它的方法内有效,方法结束,feed就会消失.最常见的用例是将某些特殊的操作指定为"feed"操作,标记的方法是使用tf.placeholder()为这些操作创建占位符.input1=tf.placeholder(tf.float32)input2=tf.placeholder(tf.float32)output=(input1,input2)withtf.Session()assess:print([output],feed_dict={input1:[7.],input2:[2.]})#输出:#[array([14.],dtype=float32)]foralarger-scaleexampleoffeeds.如果没有正确提供feed,placeholder()操作将会产生错误.MNIST全连通feed教程(sourcecode)给出了一个更大规模的使用feed的例子.。

用MATLAB与BP神经网络法处理15组数据,共60个数据,需要多长时间

训练时长取决于训练算法、训练目标、样本数量和网络规模。你的样本只有15组,数量较少,一般几秒钟就能训练完成。

若从速度的角度出发,人脑神经元之间传递信息的速度要远低于计算机,前者为毫秒量级,而后者的频率往往可达几百兆赫。

但是,由于人脑是一个大规模并行与串行组合处理系统,因而,在许多问题上可以作出快速判断、决策和处理,其速度则远高于串行结构的普通计算机。

人工神经网络的基本结构模仿人脑,具有并行处理特征,可以大大提高工作速度。

人工智能训练模型 需要多长时间

机器学习100完数据一个模型训练多久

这个区别大了去了。训练时间取决于很多因素:计算机的配置模型。线性回归模型训练较快,如果是多层神经元模型,就没边了,你用个100层的数据集,估计训练结束要明年了。姑且猜你要说100万数据。

这也取决于你每一条数据是什么,如果一条数据就是个3维向量或者5维向量,这倒还好。如果一条数据是一张1920x1080像素的照片。那训练完估计要2020年了。

请问一下,无基础学习卷积神经网络需要多久?

卷积神经网络有以下几种应用可供研究:1、基于卷积网络的形状识别物体的形状是人的视觉系统分析和识别物体的基础,几何形状是物体的本质特征的表现,并具有平移、缩放和旋转不变等特点,所以在模式识别领域,对于形状的分析和识别具有十分重要的意义,而二维图像作为三维图像的特例以及组成部分,因此二维图像的识别是三维图像识别的基础。

2、基于卷积网络的人脸检测卷积神经网络与传统的人脸检测方法不同,它是通过直接作用于输入样本,用样本来训练网络并最终实现检测任务的。

它是非参数型的人脸检测方法,可以省去传统方法中建模、参数估计以及参数检验、重建模型等的一系列复杂过程。本文针对图像中任意大小、位置、姿势、方向、肤色、面部表情和光照条件的人脸。

3、文字识别系统在经典的模式识别中,一般是事先提取特征。提取诸多特征后,要对这些特征进行相关性分析,找到最能代表字符的特征,去掉对分类无关和自相关的特征。

然而,这些特征的提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能。同时,图像预处理的好坏也会影响到提取的特征。

如何训练神经网络

1、先别着急写代码训练神经网络前,别管代码,先从预处理数据集开始。我们先花几个小时的时间,了解数据的分布并找出其中的规律。

Andrej有一次在整理数据时发现了重复的样本,还有一次发现了图像和标签中的错误。所以先看一眼数据能避免我们走很多弯路。

由于神经网络实际上是数据集的压缩版本,因此您将能够查看网络(错误)预测并了解它们的来源。如果你的网络给你的预测看起来与你在数据中看到的内容不一致,那么就会有所收获。

一旦从数据中发现规律,可以编写一些代码对他们进行搜索、过滤、排序。把数据可视化能帮助我们发现异常值,而异常值总能揭示数据的质量或预处理中的一些错误。

2、设置端到端的训练评估框架处理完数据集,接下来就能开始训练模型了吗?并不能!下一步是建立一个完整的训练+评估框架。在这个阶段,我们选择一个简单又不至于搞砸的模型,比如线性分类器、CNN,可视化损失。

获得准确度等衡量模型的标准,用模型进行预测。这个阶段的技巧有:·固定随机种子使用固定的随机种子,来保证运行代码两次都获得相同的结果,消除差异因素。·简单化在此阶段不要有任何幻想,不要扩增数据。

扩增数据后面会用到,但是在这里不要使用,现在引入只会导致错误。

·在评估中添加有效数字在绘制测试集损失时,对整个测试集进行评估,不要只绘制批次测试损失图像,然后用Tensorboard对它们进行平滑处理。·在初始阶段验证损失函数验证函数是否从正确的损失值开始。

例如,如果正确初始化最后一层,则应在softmax初始化时测量-log(1/n_classes)。·初始化正确初始化最后一层的权重。如果回归一些平均值为50的值,则将最终偏差初始化为50。

如果有一个比例为1:10的不平衡数据集,请设置对数的偏差,使网络预测概率在初始化时为0.1。正确设置这些可以加速模型的收敛。·人类基线监控除人为可解释和可检查的损失之外的指标。

尽可能评估人的准确性并与之进行比较。或者对测试数据进行两次注释,并且对于每个示例,将一个注释视为预测,将第二个注释视为事实。

·设置一个独立于输入的基线最简单的方法是将所有输入设置为零,看看模型是否学会从输入中提取任何信息。·过拟合一个batch增加了模型的容量并验证我们可以达到的最低损失。

·验证减少训练损失尝试稍微增加数据容量。

转行深度学习,如何解决自己在学习中遇到的瓶颈问题?

大数据和高性能的计算能力,让深度学习技术开始超越人类。

随着深度学习技术在应用上已经取得的快速发展,有人开始认为,科技既然能够通过互联网,让全世界实现信息共享,那么,随着以深度学习为代表的人工智能技术的发展,有理由相信,未来将会有比人的智力更高的新物种被创造出来。

不过,在众人普遍看好深度学习技术的发展前景时,也有业内专业人士指出,深度技术在发展方面还存在着不少问题。这些问题主要体现在以下几个方面。(1)理论问题。

深度学习的理论问题主要体现在统计学和计算两个方面。对于任意一个非线性函数,都能找到一个浅层网络和深度网络来表示。深度模型比浅层模型对非线性函数具有更好的表现能力。但深度网络的可表示性并不代表可学习性。

要了解深度学习样本的复杂度,要了解需要多少训练样本才能学习到足够好的深度模型,就必须知道,通过训练得到更好的模型需要多少计算资源,理想的计算优化是什么。

由于深度模型都是非凸函数,也就让深度学习在这方面的理论研究变得非常困难。(2)建模问题。工业界曾经有一种观点:“在大数据条件下,简单的机器学习模型会比复杂模型更有效。

”在实际的大数据应用中,很多最简单的模型得到大量使用的情形也在一定程度上印证着这种观点。但是,随着深度学习的快速发展,人们不得不重新思考这种观点。

因为在大数据情形下,往往只有比较复杂或表达能力强的模型,才能充分挖掘海量数据中的信息。随着深度模型变得更强大,从大数据中发掘出的信息往往更有价值。大数据需要深度模型。

比如说,语音识别所涉及的是大数据机器学习问题。其声学建模所面临的是高达十亿到千亿级别的样本训练。

Google公司在一个语音识别实验中发现,训练后的DNN,训练样本上的预测误差,竟然与测试样本的预测误差基本相当。而在通常模型上,训练样本上的预测误差要明显小于测试样本。

这是因为大数据里含有丰富的信息维度,从而让DNN这样高容量的复杂模型处于欠拟合状态。由此也就表明大数据需要深度学习。浅层模型模拟人工经验抽取样本特征,其功能主要是负责分类或预测。

在这种情形下,特征的好坏就成为整个系统性能的关键。为此,为了发掘更好的特征,开发人员就得对需要解决的问题有深入的理解。要做到这一点,就需要反复摸索,这在时间上往往要花费数年。

这就表明,人工设计样本特征在可扩展性上欠佳。深度学习的实质是学习更有用的特征,最终提升分类或预测的准确性。其方法是构建深度模型和海量训练数据。可以说,特征学习是目的,深度模型是手段。

相对浅层学习来说,深度学习具有多达5层、6层,甚至是10多层的隐层节点,还突出了特征学习的重要性。深度学习通过逐层特征变换,让分类或预测变得更容易。

利用大数据来学习特征,比通过人工规则来构造规则更能刻画数据的内在信息。那么,在推进深度学习的学习理论与计算理论时,能不能提出新的具有强大表示能力的分层模型呢?

在具体应用上,又该怎样设计一个用来解决问题的最合适的深度模型呢?还有,是否存在可能建立一个通用的深度模型或者是建模语言呢?这些都是深度学习必须面对的问题。(3)工程问题。

对于从事深度学习技术研发的人来说,首先要解决的是利用并行计算平台来实现海量数据训练的问题。深度学习需要频繁迭代,传统的大数据平台无法适应这一点。随着互联网服务的深入,海量数据训练的重要性日益凸显。

而现有的DNN训练技术通常所采用的随机梯度法,不能在多个计算机之间并行。采用CPU进行传统的DNN模型训练,训练时间非常漫长,一般训练声学模型就需要几个月的时间。

这样缓慢的训练速度明显不能满足互联网服务应用的需要。目前,提升模型训练速度,成为许多大公司研发者的主攻方向。比如谷歌公司,搭建起了DistBelief这个深度学习并行计算平台。

通过采用异步算法,实现随机梯度下降算法的并行化,从而加快模型训练速度。不过,工程方面尽管取得了一定的进展,但对解决各种服务需求来说,仍然有很长的一段路要走。

深度学习引领着“大数据+深度模型”时代的到来。尤其是在推动人工智能和人机交互方面取得了长足的进步。同时也应该看到,深度学习在理论、建模和工程方面仍面临着一系列的难题。

而在具体应用方面,深度学习也面临着一些挑战。人工智能神经网络建设从最初的设想到成为信息技术中的应用,花了超过50年的时间。在克服传统计算机性能不足方面,神经网络算法较其他算法更具有先进性。

在早期的实验中,网络训练方法是:“迭代地调整每个神经元施加到其输入的数据,来尽量减少整个网络的输出与所希望的结果之间的误差。”这样的训练虽然较过去有所改善,但让深度学习在规模上面临着一个挑站。

2006年,多伦多大学开发的训练技术能用于包含多个隐藏层的网络,其中的一种技术叫作“预训练”。这种方法能让上层提取高级特征,但无法解决规模问题。处在较高层的神经元,需要巨大的计算能力。

如用于图像处理应用程序的第一层所需要分析的像素就多达一百万个。深度网络的多个层连接的数量非常巨大,每个图像的连接就达几十亿甚至上千亿。训练这样的大型网络,需要数千亿的浮点运算。

这样的巨大规模,让神经网络的训练变得非常缓慢。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值