2018图灵奖授予AI三教父 Bengio、LeCun、Hinton

小磨SBF直播馆 2019-03-27

2018图灵奖授予AI三教父 Bengio、LeCun、Hinton

【新智元导读】ACM刚刚公布2018年图灵奖获得者,深度学习三巨头:Yoshua Bengio、Geoffrey Hinton、Yann LeCun获奖,深度学习获得了最高荣誉!本文编辑:张乾,小芹,大明,元子

荣耀属于深度学习!

今天,2018年图灵奖公布,深度学习三巨头:Yoshua Bengio、Geoffrey Hinton、Yann LeCun获奖,三人瓜分100万美元奖金。

Yann LeCun、Geoffrey Hinton、Yoshua Bengio

  • Yoshua Bengio是蒙特利尔大学教授,也是魁北克人工智能研究所的科学主任;
  • Geoffrey Hinton是谷歌副总裁和Engineering Fellow,Vector人工智能研究院首席科学顾问,多伦多大学名誉教授;
  • Yann LeCun是纽约大学教授、Facebook副总裁兼首席AI科学家。

三位获奖者在业内被称为“当代人工智能教父”,开创了深度神经网络(deep neural network),而这项技术已经成为计算科学的关键部分,为深度学习算法的发展和应用奠定了基础。

去年,”深度学习寒冬论“频起,三位大神也在多个场合对”寒冬“做出了回应。不仅如此,Geoffrey Hinton还提出新的神经网络模型Capsule Network(胶囊网络),试图找到解决深度学习缺陷的新方法。

AI三巨头简介

Geoffrey Hinto

2018图灵奖授予AI三教父 Bengio、LeCun、Hinton

Geoffrey Hinton是谷歌副总裁兼Engineering Fellow,向量研究所首席科学顾问、多伦多大学名誉教授。Hinton在剑桥大学获得实验心理学学士学位,在爱丁堡大学获得人工智能博士学位。他是CIFAR的神经计算和自适应感知(后来的“机器和大脑学习”)项目的创始主任。

Hinton曾获加拿大最高荣誉勋章,英国皇家学会会员,美国国家工程院外籍院士,国际人工智能联合会议(IJCAI)卓越研究奖,NSERC Herzberg金牌奖,及IEEE James Clerk Maxwell金牌。他还被“连线”杂志选为“2016年度最具影响力100人”之一,并被彭博社选为2017年“改变全球商业格局的50人”之一。

Yann LeCun

2018图灵奖授予AI三教父 Bengio、LeCun、Hinton

Yann LeCun是纽约大学Courant数学科学研究所的Silver教授,Facebook的副总裁兼首席AI科学家。他在英国电子技术与电子学院(ESIEE)获得高等英语学士学位,在玛丽·居里·皮埃尔大学获计算机科学博士学位。

LeCun是美国国家工程院院士,来自墨西哥IPN和洛桑联邦理工学院(EPFL)的荣誉博士,宾夕法尼亚大学Pender奖得主,埃因霍温技术大学和飞利浦实验室Holst奖章获得者,诺基亚-贝尔实验室Shannon Luminary奖、IEEE PAMI杰出研究员奖、以及IEEE神经网络先锋奖。

他被《连线》杂志选为“2016最具影响力人物100人之一”以及“25位创造商业未来的天才”之一。LeCun是纽约大学数据科学中心的创始主任,也是CIFAR学习机器和脑力项目的负责人(与Yoshua Bengio共同担任)。 此外,LeCun还是人工智能合作伙伴关系委员会的联合创始人和前成员之一,该机构是研究AI的社会后果的企业和非营利组织的联合体。

Yoshua Bengio

2018图灵奖授予AI三教父 Bengio、LeCun、Hinton

Yoshua Bengio是蒙特利尔大学的教授、魁北克人工智能研究所和IVADO(数据实验研究所)的科学总监。他是CIFAR机器和脑力学习项目的联合主任(与Yann LeCun共同担任)。 Bengio拥有麦吉尔大学电子工程学士学位,计算机科学硕士和博士学位。

Bengio曾获加拿大勋章,加拿大皇家学会会员和Marie-Victorin奖。他创建魁北克人工智能研究所(Mila)和并担任该所科学主任也被认为是对AI领域的重大贡献。 Mila是一家独立的非营利组织,目前拥有300名研究人员和35名教职员工,目前是世界上最大的深度学习研究学术中心,并使蒙特利尔成为一个充满活力的AI生态系统,全球多家大公司和AI创业公司均在此设立研究实验室。

挺过寒冬,取得成就

近年来,深度学习方法在计算机视觉、语音识别、自然语言处理和机器人等应用领域取得了惊人的突破,这一切得益于神经网络。

在传统计算中,计算机程序使用明确的分步指令指导计算机。在AI研究的一个子领域—— 深度学习中,计算机并没有被明确告知如何解决特定的任务,如对象分类。相反,它使用一种学习算法来提取数据中的模式,这些模式将输入数据 (如图像的像素) 与期望的输出 (如标签 “cat”) 关联起来。研究人员面临的挑战是开发有效的学习算法,这些算法可以修改人工神经网络连接的权重,以使这些权重捕捉数据中的相关模式。

Geoffrey Hinton 自上世纪 80 年代初以来一直倡导用机器学习方法研究人工智能。受人类大脑的启发,他和其他人提出了“人工神经网络”,作为他们的机器学习研究的基石。

虽然在 20 世纪 80 年代人工神经网络就已作为一种帮助计算机识别模式和模拟人类智能的工具被提出,但直21世纪初,只有LeCun、Hinton和Bengio等一小群人仍然坚持使用这种方法。

同时,他们对神经网络的兴趣最初遭到了怀疑,此后,他们的想法带来了重大的技术进步,现在已经成为该领域的主导范式。

在计算机科学中,“神经网络” 这个术语指的是由计算机中模拟的、称为“神经元” 的相对简单的计算元件的层组成的系统。这些 “神经元” 知识与人脑中的神经元大致相似,它们通过加权连接相互影响。通过改变连接的权重,可以改变神经网络执行的计算。Hinton、LeCun和Bengio认识到使用多层构建深度网络的重要性 —— 因此有了“深度学习”这个术语。

Hinton、LeCun 和 Bengio 三人的独立工作及合作工作,为该领域开发了概念基础,通过实验发现了令人惊讶的现象,并为证明深度神经网络的实际优势的工程进展做出了贡献。

深度神经网络改变每一个领域

由于强大的图形处理器 (GPU) 计算机的普及,以及大型数据集变得可用,LeCun、Bengio 和 Hinton 在过去 30 年里奠定的概念基础和工程进展得到了显著的推进。近年来,这些因素以及其他因素带来了计算机视觉、语音识别和机器翻译等技术的跨越式发展。

Hinton、 LeCun 和Bengio既有合作研究,也有独立工作。

例如,LeCun 在Hinton 的指导下进行博士后研究工作,LeCun和Bengio在20世纪90年代初曾共同在贝尔实验室工作。即使没有在一起工作,他们的工作中也有协同合作和相互联系,他们彼此之间的影响很大。

Bengio、Hinton 和LeCun 继续探索机器学习与神经科学和认知科学的交叉领域,最显著的是,他们共同参与了加拿大高级研究所的 Learning in Machines and Brains 倡议。

图灵奖通常被视为 “计算机领域的诺贝尔奖”,由谷歌公司提供资金支持,奖金为100 万美元。Bengio,、Hinton 和 LeCun 将于 2019 年 6 月 15 日星期六在加利福尼亚州旧金山举行的 ACM 年度颁奖晚宴上正式接受 2018 ACM AM 图灵奖。

ACM主席Cherri M. Pancake 说,“人工智能现在是所有科学领域中增长最快的领域之一,也是社会上谈论最多的话题之一。人工智能的发展以及人们对它的兴趣,在很大程度上要归功于 Bengio、Bengio 和 LeCun 为之奠定基础的深度学习的最新进展。这些技术被数十亿人使用。任何口袋里有智能手机的人都能实实在在地体验到自然语言处理和计算机视觉方面的进步,这在10 年前是不可能的。除了我们每天使用的产品,深度学习的新进展也为医学、天文学、材料科学等领域的科学家们提供了强大的新工具”。

“深度神经网络对现代计算机科学的一些重大进步做出了贡献,帮助在计算机视觉、语音识别和自然语言理解等领域长期存在的问题上取得了实质性进展。”Google 高级研究员、谷歌AI高级副总裁Jeff Dean表示:“这一进步的核心是今年的图灵奖获得者Yoshua Bengio,Geoffrey Hinton 和 Yann LeCun 在 30 多年前开发的基础技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。”

三位大神的成就

下面是本次获图灵奖的三位大神的主要技术成就,这些成就对其后的深度学习研究产生了巨大的影响。

Geoffrey Hinton

反向传播:

1986年,Hinton与David Rumelhart和Ronald Williams共同撰写了“Learning Internal Representations by Error Propagation”论文,Hinton等人在文中证明了反向传播算法可以让神经网络发现自身的数据内部表示,这一发现让神经网络有可能解决以前被认为不可解决的问题。反向传播算法已经成为如今大多数神经网络的标准。

玻尔兹曼机:

1983年,Hinton与Terrence Sejnowski一起共同发明了玻尔兹曼机,这是第一个能够学习不属于输入或输出的神经元内部表示的神经网络之一。

对卷积神经网络的改进:

2012年,Hinton与他的学生Alex Krizhevsky和Ilya Sutskever一起使用整流线性神经元和退出正则化改进了卷积神经网络。在著名的ImageNet图像识别大赛中,Hinton和他的学生几乎将对象识别的错误率降低了一半,可以说重塑了计算机视觉领域。

Yoshua Bengio

序列的概率模型:

20世纪90年代,Bengio将神经网络与序列的概率模型(如隐马尔可夫模型)结合起来。这些思想被纳入AT&T / NCR用于读取手写支票的系统中,成为20世纪90年代神经网络研究的巅峰之作,目前的深度学习语音识别系统正是这些概念的扩展。

高维词汇嵌入和注意力机制:

2000年,Bengio撰写了具有里程碑意义的论文“A Neural Probabilistic Language Model”,此文引入了高维词嵌入作为词义表示。Bengio的这个思想对日后的自然语言处理任务产生了巨大而深远的影响,其中包括语言翻译、问答和视觉问答系统开发等。Bengio的团队还引入了“注意力机制”,导致了机器翻译研究的突破,并成为深度学习的顺序处理的关键组成部分。

生成对抗网络(GAN):

自2010年以来,Bengio与Ian Goodfellow共同开发的生成对抗网络(GAN)引发了一场计算机视觉和计算机图形学的革命。GAN的一个引人注目应用是,计算机实际上能够生成原始图像,这种创造力往往被认为是机器具备人类智能的标志。

Yann LeCun

卷积神经网络:

20世纪80年代,LeCun开发了卷积神经网络,成为神经网络领域的基本模型。在20世纪80年代后期,LeCun在多伦多大学和贝尔实验室工作期间,首次在手写数字图像上成功了训练卷积神经网络系统。如今,卷积神经网络是计算机视觉、语音识别,语音合成、图像合成和自然语言处理领域的行业标准。已被用于自动驾驶、医学成像分析、语音助手和信息过滤等多个领域。

对反向传播算法的改进:

LeCun提出了反向传播算法的早期版本(backprop),并根据变分原理对其进行了简洁的推导。他表述了缩短学习时间的两种简单方法,从而加快了反向传播算法的速度。

拓宽神经网络的研究领域:

LeCun还拓宽了神经网络的研究领域,将神经网络作为一种计算模型应用于更广泛的任务上。他在早期研究中引入的许多思想和理念,现在已成为AI领域的基础概念。例如,在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。他们还提出了可以操作结构数据(例如图数据)的深度学习架构。

相关推荐