论文信息
论文名:Deep learing
作者:Yann LeCun, Yoshua Bengio & Geoffrey Hinton
论文的原文在此
http://pages.cs.wisc.edu/~dyer/cs540/handouts/deep-learning-nature2015.pdf
封面截图:
这里尽量以最快的时间学习,如果我有不清楚的地方就用红色标注了。
看来想搞一下机器学习还是要选一门合适的语言呐
摘要
深度学习允许多层计算模型通过对数据进行多个水平的抽象来学习数据的表示。(首先搞明白这两个概念,一个是多层计算,一个是多水平抽象)这些方法极大地提高了语音识别,可视对象识别,对象检测的准确性;同时也用于很多其他的领域比如药物发现和基因。(这句话是扯淡的)深度学习通过使用反向传播算法来发现隐藏在大量数据集中错综复杂的结构,从而指导机器来改变它内部的参数,这些参数用来计算每一层的表示,前一层表示的结果可以用于计算下一层。(还是神经网络中的反向传播算法,这个算法已经很经典了,就看Hinton还可以怎么玩儿)深度卷积网络已经给图像,视频,语音的处理带来重大突破,而递归神经网络则在序列化数据,比如文本和语言的处理上带来新突破。(递归神经网路和卷积网络玩的比较少)
正文
机器学习技术在现代社会的很多方面都发挥着作用:从网络搜索到社交网站上的内容过滤,再到电子商务网站中的推荐系统,并且越来越多得出现在了消费品上面,比如照相机和智能手机。机器学习系统被用来识别图像中的目标,将语音转换为文本,匹配新闻条目,推送或者产生用户感兴趣的内容并且显示和搜索相关的结果。这些应用已经越来越多地运用到了一类叫做深度学习的技术。(这一段内容都是扯淡的)
常规的机器学习技术受限于它们处理原始的自然数据的能力。近十年来,构建一个模式识别或者机器学习的系统需要细致的工程技术和大量领域的专家来设计一套特征抽取器来将原始的数据转为换合适的内部表示数据或者特征向量来构建一个学习子系统,这通常作为一个分类器,能够检测或者对输入的模式进行分类。(嗯,这句话比较重要,记住数据有特征的概念,虽然都是数据,但是数据的重要性是不同的)