AI大拿列表

在人工智能研究领域,Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio一直被公认为深度学习三巨头。

1 Yann LeCun(杨立昆)

 

Yann LeCun,自称中文名“杨立昆”,计算机科学家,被誉为“卷积网络之父”,为卷积神经网络(CNN,Convolutional Neural Networks)和图像识别领域做出了重要贡献,以手写字体识别、图像压缩和人工智能硬件等主题发表过 190 多份论文,研发了很多关于深度学习的项目,并且拥有14项相关的美国专利。他同Léon Bottou和Patrick Haffner等人一起创建了DjVu图像压缩技术,同Léon Bottou一起开发了一种开源的Lush语言,比Matlab功能还要强大,并且也是一位Lisp高手。(Backpropagation,简称BP)反向传播这种现阶段常用来训练人工神经网络的算法,就是 LeCun 和其老师“神经网络之父”Geoffrey Hinton 等科学家于 20 世纪 80 年代中期提出的,而后 LeCun 在贝尔实验室将 BP 应用于卷积神经网络中,并将其实用化,推广到各种图像相关任务中。

Yann LeCun 也是Facebook人工智能研究院院长,纽约大学的 Silver 教授,隶属于纽约大学数据科学中心、Courant 数学科学研究所、神经科学中心和电气与计算机工程系。加盟Facebook之前,Lecun已在贝尔实验室工作超过20年,期间他开发了一套能够识别手写数字的系统,叫作LeNet,用到了卷积神经网络,已开源。他在 1983 年在巴黎 ESIEE 获得电子工程学位,1987 年在 Université P&M Curie 获得计算机科学博士学位。在完成了多伦多大学的博士后研究之后,他在 1988 年加入了 AT&T 贝尔实验室(AT&T Bell Laboratories /Holmdel, NJ),在 1996 年成为 AT&T Labs-Research 的图像处理研究部门主管。2003 年,他加入纽约大学获得教授任职,并在 NEC 研究所(普林斯顿)呆过短暂一段时间。2012 年他成为纽约大学数据科学中心的创办主任。2013 年末,他成为 Facebook 的人工智能研究中心(FAIR)负责人,并仍保持在 NYU 中兼职教学。从 2015 到 2016 年,Yann LeCun 还是法兰西学院的访问学者。

LeCun 是 ICLR 的发起人和常任联合主席(general co-chair),并且曾在多个编辑委员会和会议组织委员会任职。他是加拿大高级研究所(Canadian Institute for Advanced Research)机器与大脑学习(Learning in Machines and Brains)项目的联合主席。他同样是 IPAM 和 ICERM 的理事会成员。他曾是许多初创公司的顾问,并是 Elements Inc 和 Museami 的联合创始人。LeCun 位列新泽西州的发明家名人堂,并获得 2014 年 IEEE 神经网络先锋奖(Neural Network Pioneer Award)、2015 年 IEEE PAMI 杰出研究奖、2016 年 Lovie 终身成就奖和来自墨西哥 IPN 的名誉博士学位。
 

 

2 Geoffrey Hinton (杰弗里·辛顿) :

 

杰弗里·埃弗里斯特·辛顿(Geoffrey Everest Hinton),计算机学家、心理学家,被称为“神经网络之父”、“深度学习鼻祖”。他研究了使用神经网络进行机器学习、记忆、感知和符号处理的方法,并在这些领域发表了超过200篇论文。他是将(Backpropagation)反向传播算法引入多层神经网络训练的学者之一,他还联合发明了波尔兹曼机(Boltzmann machine)。他对于神经网络的其它贡献包括:分散表示(distributed representation)、时延神经网络、专家混合系统(mixtures of experts)、亥姆霍兹机(Helmholtz machines)等。

1970年,Hinton在英国剑桥大学获得文学学士学位,主修实验心理学;1978年,他在爱丁堡大学获得哲学博士学位,主修人工智能。此后Hinton曾在萨塞克斯大学、加州大学圣迭戈分校、剑桥大学、卡内基梅隆大学和伦敦大学学院工作。2012年,Hinton获得了加拿大基廉奖(Killam Prizes,有“加拿大诺贝尔奖”之称的国家最高科学奖)。Hinton是机器学习领域的加拿大首席学者,是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者,是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。

2013年3月,谷歌收购 Hinton 的公司 DNNResearch 后,他便随即加入谷歌,直至目前一直在 Google Brain 中担任要职。在他的带领下,谷歌的图像识别和安卓系统音频识别的性能得到大幅度提升。他将神经网络带入到研究与应用的热潮,将“深度学习”从边缘课题变成了谷歌等互联网巨头仰赖的核心技术,并将反向传播算法应用到神经网络与深度学习。

Hinton 是鲁梅哈特奖的首位获奖者,1998年当选皇家学会会士。2005年,Hinton获得IJCAI杰出学者奖终生成就奖,同时也是2011年赫茨伯格加拿大科学和工程金奖获得者。

 

3 Yoshua Bengio(约书亚·本吉奥):

 

Yoshua Bengio(约书亚·本吉奥)因深度学习工作与Geoffrey Hinton和Yann LeCun共同分享了2018年图灵奖,被公认为世界领先的AI专家和深度学习先驱。1964年,出生在法国巴黎,和Lecun童年生活在同一个城市的不同角落,现与Hinton一样选择生活在加拿大,拥有加拿大CIFAR AI主席一职。

Bengio大学就读于麦吉尔大学“计算机工程学”专业,1986-1991年继续修“计算机科学“到博士毕业,随后一段时间在麻省理工学院做博士后研究员,1992年到美国AT&T贝尔实验室LeCun小组做学习和视觉算法研究工作。

1993年起,他一直在蒙特利尔大学教书育人,负责计算机科学与运筹学方向。他也是蒙特利尔学习算法研究所(MILA)创始人和科学主任。MILA,一家独立的非营利组织,世界上最大的深度学习研究小组,拥有来自地球上很多公司和AI创业公司的研究实验室。

与Ian Goodfellow、Aaron Courville两人合著 Deep Learning 。 http://www.deeplearningbook.org/

4  Andrew Ng(吴恩达):

 

    机器学习  https://blog.csdn.net/red_stone1/article/details/83796870

https://mooc.study.163.com/smartSpec/detail/1001319001.htm

    深度学习 视频教程 https://www.deeplearning.ai/

 

Tom Mitchell 

卡内基梅隆大学(CMU)任命机器学习和计算机科学 E. Fredkin University 教授 Tom Mitchell 为计算机学院临时代理院长。

Mitchell 是机器学习领域的先驱。1997 年,Mitchell 联合创建了自动化学习和发现中心(Center for Automated Learning and Discovery),该中心于 2006 年成为世界上第一个机器学习系,并提供了首个机器学习博士项目。他领导该系至 2016 年。

Machine Learning, Tom Mitchell, McGraw Hill.

 主页: http://www.cs.cmu.edu/~tom/

 http://www.cs.cmu.edu/afs/cs.cmu.edu/user/mitchell/ftp/mlbook.html

 新章节: http://www.cs.cmu.edu/~tom/NewChapters.html

 

5 机器学习工具

   (1) Python: numpy | matplotlib | 

         NumPy 通常与 SciPy(Scientific Python)和 Matplotlib(绘图库)一起使用, 这种组合广泛用于替代 MatLab

   (2)  Octave

   (3) matlab

   (4) R

 

6 深度学习

 

7  算法应用方向

    1 语音交互 & 自然语言理解

    2 视觉感知

    3 相关推荐等等

 

8 硅谷来信 谷歌方法论 吴军  关于人工智能学习方法

   计算使用数据的工具: SAS工具(包括研究经济学的、证券的、生物统计的等等)
   做工程的需要掌握Matlab 或者 Mathematica这两个工具  Octave工具
   若需要编程至少应该读过 《数字配方》(Numerical recipe)这本书里面有几乎所有的将实现中的工程问题变成计算机程序的算法以及它的很多源代码,看懂之后直接使用
        《Numerical recipe: 3rd Edition: The Art of Scientific Computing》
         数值分析
         数值分析既有数学的部分(各种定义、定理、推论)也有工程计算的部分(各种课后上机作业),在每个具体问题之前有一套基本的理论:先研究是正问题、反问题还是其他问题,然后考虑问题的适定性,再然后是问题的条件数(比如学会各种预处理降低问题的条件数)。然后才是具体的算法(针对处理的具体问题可以大致分为数值代数、数值方程、数值逼近这些,前面有些答案已经很好了),对具体算法、(往往是迭代法)误差(比如方程的局部截断误差)、收敛性(往往是局部收敛)、相容性、稳定性、精度、效率的分析。
   学习人工智能?

     首先 编程,算法和需要有足够的概率论和数理统计基础
     然后学习《人工智能:一种现代方法》(Artificial Intelligence: A Modern Approach)
     在后 人工智能的不同应用,需要一些专业知识: 比如人脸识别, 就需要学习图像处理;做机器翻译,就需要学习自然语言处理
     工具: TensorFlow 和 Caffe
     硬件: 英伟达、英特尔、苹果、谷歌和AMD

来源:  硅谷来信 谷歌方法论 吴军
      答读者问30 | 如何培养提出问题的能力?

 

参考:

http://www.techwalker.com/2017/1225/3102138.shtml

https://www.jianshu.com/p/3a0971f0bd09

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值