深度强化学习

深度学习领域大佬

2018-12-12  本文已影响148人  小赛TT

深度学习有三巨头Hinton、LeCun、Bengio,四大天王,在三巨头的基础上加上了吴恩达。还有吴恩达眼中的深度学习七雄。本文就将上面的大佬们聚在一起,统称大佬。排名不分先后。

Geoffrey Hinton

多伦多大学的特聘教授,Google AI团队领军人

只要是在机器学习届混的或者懂点机器学习的人们,抑或懂点神经网络的人们,相信都知道“Back Propagation ”反向传播的鼎鼎大名。

Hinton便是将BP算法应用到神经网络与深度学习中人员之一,并且是主导者(co-inventor). Hinton 提出了“Dark Knowledge”黑暗知识概念,该概念是受小概率比率事件中的“大部分知识”对于训练与测试中的代价函数是没有影响的。

Hinton在人工智能领域中无人不知无人不晓是因为其在人工神经网络(Artificial Neural Networks)中所作出的贡献。

但事实是,直到2004年,学术界对Hinton的研究仍然提不起兴趣。而这时距离他们首次提出“反向传播”算法已经过了20年,学术界AI普遍的研究方向也与他们相反,都在试图寻找捷径,直接模拟出行为,而不是试图通过模仿大脑的运作来实现。Hinton牛逼的地方在于,在那个充满怀疑的时期,承受着世界的质疑和嘲讽,他仍然潜心于他所相信的科学。

Hinton和他的团队强力将“神经网络”从垂死边缘一步步带入到当今的研究与应用的热潮,变成了炙手可热的的学术界课题,将“深度学习”从边缘课题变成了Google等互联网巨头仰赖的核心技术。目前神经网络与深度学习已在自然语言处理、语音处理以及计算机视觉等领域中得到了空前广泛与成功地应用。

Yann Lecun

纽约大学终身教授,Facebook AI实验室负责人

Lecun在多伦多大学随Hinton读博士后,没错,他是Hinton的学生,另一个神经网络与深度学习大拿。他在皮埃尔玛丽居里大学攻读计算机科学博士学位期间提出后向传播算法。

他如今在Facebook带领团队进行人工智能工作,即他是Facebook人工智能实验室的负责人。他在纽约大学任职了12年,是纽约大学的终身教授,是纽约大学数据科学中心的负责人。为了表彰他在深度学习领域里所作出的贡献,IEEE计算机学会颁给他着名的“神经网络先锋奖”,在2014年北京计算智能大会上授予。

很多科技巨头正在挖掘一种特殊的深度学习,他们称之为卷积神经网络(convolutional neural networks),旨在构建更智能地的互联网服务,比如可以自动理解语言和识别图像。在谷歌,“卷积神经网络”帮助他们在安卓手机上开发语音识别系统;而百度则可以利用它开发全新的视觉搜索引擎。在这一领域里最负盛名的,非LeCun莫属。

在加盟Facebook之前,Lecun已在贝尔实验室工作超过20年,期间他开发了一套能够识别手写数字的系统,叫作LeNet,用到了卷积神经网络(Cnvolutional Neural Networks, CNN),已开源。他研发了很多关于深度学习的项目,并且拥有14项相关的美国专利。他甚至开发了一种开源的面向对象编程语言Lush,比Matlab功能还要强大,并且也是一位Lisp高手。他在机器学习、深度学习、计算机视觉、计算神经科学领域进行了深度研究。

Yoshua Bengio

蒙特利尔大学终身教授,CIFAR项目负责人

他是ApSTAT技术的发起人与研发大牛。他也是蒙特利尔大学(Université de Montréal)的终身教授,任教超过22年,是机器学习实验室(MILA)的负责人,是CIFAR项目的负责人之一,负责神经计算和自适应感知器等方面。又是加拿大统计学习算法学会的主席,并且是NSERC-Ubisoft主席以及其它。在蒙特利尔大学任教之前,他是ATT MIT的一名机器学习研究员。他的主要贡献在于深度学习与人工智能等领域。

他的研究工作主要聚焦在高级机器学习方面,致力于用其解决人工智能问题,他是仅存的几个仍然全身心投入在学术界的深度学习教授之一。(Google学者在2017年4月有超过65000次引用,H指数为95)。 

bengio的主要贡献在于他对rnn的一系列推动包括经典的neural language model,gradient vanishing 的细致讨论,word2vec的雏形,以及现在的machine translation。symbolic computional graph思想的theano,这个库启发了后来的多个库的开发(直接基于它的库就不提了比如keras),包括国内很火的MXnet,google的tensorflow以及berkeley的cgt等等,可以说这个工具以及所涵盖的思想可以算同类型库的鼻祖。

Andrew Ng

斯坦福大学副教授,曾就职于谷歌,百度首席科学家

Andrew Ng中文名吴恩达,在很多人看来是否能跟前三位大牛并列似乎是一件富有争议的事情。的确,在纯理论研究上面NG的光芒不如三大牛,甚至可以说有不小的差距,但是在工程方面的应用他仍然是人工智能领域的权威。NG让人熟知并不是学术上的研究,而是他和Daphne Koller共同创建Coursera(在线教育平台)这一流大学在线课程平台,相信很多受益于Coursera的朋友要跪拜了。

对于中国的学者来说,他的名气颇高不仅是因为他是一名华裔,还因为他百度首席科学家的称号。在加盟百度之前,他已经在google工作了几年,在XLab团队开发无人驾驶汽车和谷歌眼镜等项目,并与其他google工程师合作建立了全球最大的人工神经网络,名为Google Brain,对于普通数据从业者最熟悉的莫过于斯坦福大学机器学习公开课,自主学习与自动识别哪些是关于猫的视频。

他是人工智能和机器学习领域国际上最权威的学者之一。他2007年获得了斯隆奖(Sloan Fellowship),2008年入选“the MIT Technology Review TR35”,即《麻省理工科技创业》杂志评选出的科技创新35俊杰,以及计算机思维奖(Computers and Thought Award),并在2013年入选《Time》杂志年度全球最有影响力的100人之一,共16位科技界人物。他的主要兴趣领域在机器学习、深度学习、机器人、人工智能、计算机视觉等方面。

Andrej Karpathy

特斯拉人工智能研究室主任

Andrej Karpathy绝对是我最喜欢的大牛之一,我非常喜欢他的基于卷积神经网络的机器视觉识别课程(Cs231n)。Andrej Karpathy目前是特斯拉人工智能部门主管,专注于自动驾驶视觉。在此前,他也是OpenAI的研究科学家,一直致力于计算机视觉,主要工作是建模和研究强化学习中的深度学习。他在斯坦福大学获得博士学位,是李飞飞的高徒,和李飞飞共同研究卷积/循环神经网络架构,并在机器视觉,自然语言处理及其交叉领域成功应用。

在他的博士学位期间,他在谷歌实习两次,期间他对YouTube的视频进行了大规模的功能学习。2015年,他在DeepMind实习,研究了深度加强学习。他与李飞飞一起设计并教授了一门关于基于卷积神经网络的视觉识别的斯坦福大学课程(CS231n)。

Ian Goodfellow

谷歌大脑研究科学家

Ian Goodfellow 是 Google Brain 研究员,以第一作者的身份,与 Yoshua Bengio、Aaron Courville 合著了《Deep Learning》 教科书,还曾经在 OpenAI 工作过一段时间。他最广为人知的成就是 2014 年 6 月提出了生成对抗网络( GAN ),为解决生成式问题提供了革命性的思路,从提出以后一直是热门的研究课题。因此被誉为“ GANs 之父”,Facebook AI 研究主管 Yann LeCun 称 GAN 是“过去20年来深度学习方面最酷的想法”。 Ian Goodfellow 被推举为人工智能领域的顶级专家。2016年,他在OpenAI 成立了机器学习自会议。

Ian Goodfellow 拥有蒙特利尔大学博士学位,师从 Yoshua Bengio 。在读博期间就以软件工程师身份在 Google Street Smart Team 实习,毕业后先后担任 Google TensorFlow 及 Google Brain 团队的研究员。

Ian Goodfellow 的研究兴趣涵盖大多数深度学习主题,特别是生成模型以及机器学习的安全和隐私。Ian Goodfellow在研究对抗样本方面是一位有影响力的早期研究者,他发明了生成式对抗网络,在深度学习领域贡献卓越。

Ruslan Salakhutdinov

苹果人工智能研究室主任

Ruslan Salakhutdinov是加拿大人工智能的研究者。他专攻深度学习中概率图形模型和大规模优化。 Ruslan以研究贝叶斯理论而闻名。在 2009 年获得博士学位,师从 Geoffrey Hinton,研究的领域主要包括深度学习、概率图谱模型以及大规模优化等。Ruslan Salakhutdinov 2011 年在多伦多大学担任助理教授,2016 年 2 月转到卡内基梅隆大学担任副教授。同年,出任苹果人工智能研究院首任总监。

2006 年 7 月,Ruslan Salakhutdinov 作为第二作者,与作为第一作者的导师 Geoffrey Hinton 在 Nature 杂志上合作发表了论文《用 NN 实现数据的降维》(Reducing the Dimensionality of Data with Neural Networks),这篇论文提出了通过最小化函数集对训练集数据的重构误差,自适应地编解码训练数据的算法deep autoencoder,作为非线性降维方法在图像和文本降维实验中明显优于传统方法,证明了深度学习方法的正确性。 这篇论文与 Geoffrey Hinton 的另一篇论文《基于深度置信网络的快速学习算法》(A Fast Learning Algorithm for Deep Belief Nets),引起了整个学术界对深度学习的兴趣,才有了近十年来深度学习研究的突飞猛进和突破。

Pieter Abbel

加州大学伯克利分校教授OpenAI研究科学家

Pieter Abbel学士/硕士学位毕业于比利时鲁汶大学的电气工程专业,2008年在斯坦福大学计算机科学工程获得博士学士学位。2008年秋季加入加州大学伯克利分校,在电气工程与计算机科学系任职。目前他的研究专注于机器人技术,机器学习及控制。Abbeel教授获得过很多奖项,包括斯隆研究奖学金,空军科学研究青年研究员计划奖(AFOSR-YIP),大川研究奖,2011年TR35,IEEE机器人与自动化学会早期职业奖(RAS)和德克·沃尔兹美国机器人自动化最佳博士论文奖。他开发了学徒学习算法,使得直升机特技飞行变得更容易,比如军事演习中以前只有特种飞行员才能做的TIC TOC,混乱和自动旋转等动作。他们团队开发的机器人可以很稳定地拿起任意形状皱巴巴的衣服,并把它折叠好。他的工作受到很多流行媒体的报道,包括英国广播公司,纽约时报,麻省理工技术评论,探索频道,智慧星球等等。

Yuanqing Lin

百度研究院院长

林元庆 2008 年获得宾夕法尼亚大学电气工程学博士,研究方向为机器学习和计算机视觉,2005 年至今在顶级国际会议和期刊发表论文 30 余篇,拥有 11 项美国专利,曾担任 NIPS 大会领域主席、大规模视觉识别和检索国际研讨会联合主席等,机器学习和计算机视觉等研究领域拥有多年的研究经验和显著的成果。

获得博士学位后,林元庆博士曾任 NEC 美国实验室媒体分析部门主管。在他的带领下 NEC 研究团队在深度学习、计算机视觉和无人驾驶等领域取得世界领先水平。

2015 年 11 月加入百度担任深度学习实验室(IDL)主任后,林元庆致力于带领深度学习实验室研发具有统治级别的人工智能技术,其领导的团队在多个领域实现了技术上重大进展并且应用到百度的多项产品中去,极大地提升了产品的性能以及用户的体验,其带领的团队在多项重要计算机视觉技术在国际测试集上取得世界第一名的好成绩。林元庆于 2017 年 3 月担任百度研究院院长。

李飞飞 (我自己加的,理由是ImageNet 对AI 研究产生了深远影响)

斯坦福大学计算机系终身教授,人工智能实验室与视觉实验室主任。

李飞飞教授主要研究方向为机器学习、计算机视觉、认知计算神经学,侧重大数据分析为主,已在Nature、PNAS、Journal of Neuroscience、CVPR、ICCV、NIPS、ECCV、IJCV、IEEE-PAMI等顶级期刊与会议上发表了100余篇学术论文。她于1999年以最高荣誉获普林斯顿大学本科学位,并于2005年获加州理工学院电子工程博士学位。2009年她加入斯坦福大学任助理教授,并于2012年担任副教授(终生教授),此前分别就职于普林斯顿大学(2007-2009)、伊利诺伊大学香槟分校(2005-2006)。李飞飞教授为TED 2015大会演讲嘉宾,曾获2014年IBM学者奖、2011年美国斯隆学者奖、2012年雅虎实验室学者奖、2009年NSF杰出青年奖、2006年微软学者新星奖以及谷歌研究奖。

参考:

1.一文带你有姿势地侃深度学习大佬——大数据文摘

2.深度学习“四大天王”?—?走在人工智能时代前沿的大神们——德先生

3、吴恩达眼中的深度学习七雄——知乎

上一篇下一篇

猜你喜欢

热点阅读