DSFG 2019-02-20
大数据文摘出品
来源:FT.com
编译:橡树_Hiangsug、蒋宝尚
Facebook决定开发自己的人工智能芯片。
这也意味着Amazon和Google将要遇到 “AI芯片战”的强劲对手。
Facebook的首席人工智能科学家,现代人工智能领军人物Yann LeCun最近在接受英国“金融时报”采访时首次表示,Facebook希望与多家芯片公司合作开展项目,公司最近也曾宣布已与英特尔展开合作。但他强调,Facebook也在着手开发自家的“ASIC”芯片,服务于本公司的人工智能项目。
“众所周知,Facebook将在必要时搭建自己的硬件设备——就像现在,我们正在开发自己的专用集成电路(ASIC)。前行之路必将坎坷,但我们有信心可以战胜一切困难。”
这是Facebook首次官方宣称其进军芯片领域的野心。谈及未来公司芯片开发的着力点时,LeCun回答道:“计算机底层系统仍有很大的发展空间。”
专用AI芯片如火如荼发展
全球AI芯片创业公司融资交易数表
英伟达为各大AI数据中心图形处理器的主要供应商,如今正面临大型数据中心客户减少的短期压力,而Facebook进军AI芯片的这一决定对英伟达来讲又将是一个长期的挑战。
以往的AI芯片大多为通用处理器,但现如今,业界对AI芯片的需求发生了转变,更多人希望“秒速低耗”地完成一项单任务。这使得专用AI芯片如火如荼发展,不仅像谷歌、亚马逊和苹果这样的科技巨头大规模展开投资,许多创业公司也试图分得一羹,大举进入这场芯片大战。
业界对芯片设计和系统架构的关注持续升温,从另一方面反映出“算力”的重要性。只有基本计算能力获得根本性的突破,AI的发展才不会进入死胡同。正如LeCun所讲,如果纵观人工智能的发展历史,我们不难发现,研究人员在这一领域提出突破性见解总是在硬件得到大发展之后。
谈及阻碍人工智能发展的因素时,LeCun讲道:“在相当长的一段时间里,人们总是忽略非常明显的方法。” 以当今深度学习系统中的一项核心技术“反向传播”为例,简单来讲,反向传播是通过重新计算已有的计算结果进行优化的一种算法,这其实是基于早期研究的一个非常明显的拓展方法,但这项技术只有等到计算硬件得到飞速发展后的20世纪90年代才得到广泛应用。
其实,Facebook并非第一次设计硬件,公司曾为数据中心设备设计过新的解决方案并将其“开源”供其他人使用。LeCun表示,此次芯片设计将采用同样的方法:“技术要回馈于大众。”
Facebook的深度学习系统在图像和语言识别等方面取得了较大进展,后续的研究将继续以深度学习为核心,着力设计更优质的神经网络。
不惜一切代价地降低功耗
三十年前LeCun曾工作于AT&T贝尔实验室,在此期间他建立了第一个基于动物视觉皮层工作原理的“卷积”神经网络,现如今,这种技术在深度学习系统中得到了大范围的推广和应用。
Facebook的首席人工智能科学家Yann LeCun在建立神经网络时使用的是监督学习。实现监督学习使用需要大量的数据进行训练,且在像Facebook这样规模公司,维持日常计算需要消耗大量的电力。Facebook每天都会对上传到其核心服务的所有图片进行大量的实时分析,完成人脸识别、提取场景标签和鉴别不良信息等功能,而这些图片总数高达2-3亿。
LeCun表示,Facebook正“不惜一切代价地降低功耗并改善延迟”,以加快系统的处理速度。他继续补充道,实现大规模实时视频监控急待新的神经网络支持。为此,Facebook也仍在积极探索新的神经网络架构,以模仿更多面的人类智能,实现更自然的交互。
LeCun表示,Facebook正斥巨资开发 “自我监督”系统。“自我监督”系统不仅能够得出与他们接受过培训的数据直接相关的结论,还能对周遭世界做出更广泛的预测——人类正是通过对所处世界的理解来适应新环境的。
LeCun讲道:“从人工智能的应用来看,Facebook对‘有常识’的智能数字助手非常感兴趣,这些数字助手拥有一定的背景知识,你可以就任何话题与之畅谈。”教予计算机“常识”的开发设想仍处于初级阶段,而且使机器拥有更高级的智能短期内也根本无法实现。“如果想要机器像人或动物一样理解环境与行为之间的交互,我们需要确认更多的因果关系。”
当前挑战:不确定情况下预测未来
Facebook有一项工作为自适应神经网络的研究:这种神经网络可根据输入的数据自行调整网络架构,使其在面对现实世界的变化时更加灵活;另一种解决方案更加“简单粗暴”:规定神经网络在解决某一问题时仅 “启动”事件相关的神经元,这种方法类比人类大脑的运作方式(事件相关电位),可以大大降低功耗。研究工作还包括将计算机存储器添加到神经网络中,以便在与人进行“对话”时可以保留更多信息,使上下文更加连贯。
神经网络性能的进展很可能对支撑其计算的芯片产生连锁反应,加剧AI芯片公司间的竞争。 LeCun讲道,谷歌的TPU已成为最强大的机器学习专用芯片,TPU的使用仍相当普遍。
“但是他们设计芯片所基于的假设不一定适用于未来的神经网络架构。” 尽管硅芯片的设计具有很强的灵活性,但在另一方面,这种灵活性带来一些弊端。微软计划在其所有数据中心的服务器中镶嵌FPGA(现场可编程门阵列,一种可编程的硅芯片),虽然它在使用时更加灵活,但在处理大量数据方面效率较低,使之较针对特定任务优化的芯片处于劣势。