神经网络如何训练数据,神经网络常用训练方法

gpu构架为什么更适合发展神经网络

因为神经网络这种大范围多任务的简单运算来说,正好符合GPU这种多核架构,比如你CPU20核心,同时处理20个任务。但是神经网络可能有20000个任务(比喻)。

但最近比较有代表性的GPU-Nvidia的新TITAN-X,CUDA核心就达到了3584个,速度就不言而喻了。但是CPU的核心性能比GPU的性能强大,就好比教授和高中老师的区别。

所以在神经网络训练当中,简单训练由CUDA完成,复杂训练和综合由CPU辅助完成汇总。

这样任务被分开同时进行,平时需要训练几十天的项目可能现在几个小时就可以完成,这就是为什么GPU架构更适合神经网络并且深度学习在近年大火的原因,就是因为GPU架构解决了当初没有解决的效率问题。

谷歌人工智能写作项目:神经网络伪原创

怎样用GPU来造人工智能“火箭”

具体可以搜索一下:快包智能产品开发,外包服务平台本文是百度首席科学家吴恩达在GTCChina2016上的演讲实录整理好文案

在今年的GTCChina上,吴恩达的议题分享是到底什么是神经网络,为什么GPU非常适合对神经网络的训练。大家好,现在人们说人工智能是新的电能。

电能改变了很多不同的行业,我觉得现在人工智能也会对很多行业带来一样大的改变。

现在人工智能的计算大部分都需要依赖GPU,我今天想跟大家分享这是为什么,也跟大家分享一下人工智能对你们的工作会有怎么样的影响。

我们在人工智能领域的人都是非常幸运的,因为很早的时候大家还不清楚深度学习是多么的重要,当时黄仁勋就在人工智能方面做了很多工作,生产出这种GPU的平台,使得百度和其他公司能够取得很多的成就。

两个星期之前,百度发布了很多技术为大家提供服务,其中很多都是使用机器学习和深度学习,尤其是基于GPU的学习来进行训练的。

到底什么是深度学习,我们往往会把它和大脑中的神经元做一个类比,我希望更深地介绍一下技术方面的问题,到底什么是神经网络,为什么我们觉得GPU非常适合对这些神经网络进行训练。

我们所做的深度学习的工作99%都可以类比成将不同的矩阵进行相乘或者矩阵和向量进行相乘。从第一天开始,GPU在矩阵相乘上就是非常高效的,所以整个领域都使用GPU平台来做他们的工作。

当下,基本上所有AI的经济价值都来自于一种叫做监督式学习的模式。什么叫做监督式学习?

输入什么就输出什么,如果说进行人脸识别,你想对人脸识别的系统进行训练,首先是一些数据组,比如一张脸和一个不是脸,我们对神经网络通过不同的矩阵相乘进行训练,这就是我们进行人脸识别的做法。

很多深度学习的经济价值在于找到非常聪明的办法来使用监督式学习。有比较多的例子,比如想识别垃圾邮件;如果你有足够的数据,在百度看到很多用户和广告的信息也可以训练一个模型来预测用户会不会点击一个广告。

所以就是要找到非常聪明的监督式学习模型,这也带来了很多的经济价值。有很多现在我们所做的基础研究都是关于监督式学习的,还有加强式学习和很多其他的学习,希望未来的几年在其他领域也会进行。

这种监督式学习的公式已经足以对很多你们现在的工作带来改变。我所讲的这些技术所有细节其实在20年前就有了,那为什么现在深度学习才开始真正发展起来呢?

有几个主要的趋势:第一是深度学习在这几年才刚刚发展起来的原因是规模化。

我喜欢做一个类比,建立人工智能就像是建立一个火箭一样,到底什么叫做火箭,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值