机械鸡 2019-06-03
作者 | Piekniewski
编译 | 夕颜
出品 | AI科技大本营(ID: rgznai100)
导读:去年,一篇《AI寒冬将至》的文章在AI圈爆红,作者观点鲜明地指出AI领域出现泡沫,并预言AI寒冬将会到来,引起巨大争议。
一年之后,这位作者又火力全开,针锋相对。这次他将AI圈比作一个“马戏团”,除了调侃吴恩达,吐槽OpenAI,Diss特斯拉,还通过各种隐喻、反讽评选出了他心中的2019年最大“小丑”的年度候选人之一:麻省理工学院的网红研究员 Lex Fridman。
以下是正文。
介绍
自从我的文章《AI寒冬将至》发布并引起病毒式传播之后大约一年,就像我承诺的那样,我会定期更新AIG(通用人工智能)相关的文章。6个月前,我发布了其中一篇,现在是另一篇。最近有很多事情发生,但没有什么能改变我的想法——人工智能的泡沫正在破灭。正如每一次泡沫破灭一样,AI正处于井喷阶段,那些最有可能一败涂地的人正拿出他们最离谱的信心,上演一出让更天真的人为他们掏腰包的最后把戏。冷静一下,让我们回顾过去一段时间发生了什么。
严肃的事情
首先让我们回顾一下不是那么滑稽的事情。三位深度学习先驱——Geoffrey Hinton、Yoshua Bengio和 Yann Lecun 荣获图灵奖,这是计算机科学领域最负盛名的奖项。如果你认为我会以某种方式质疑这个奖项你就错了,我认为深度学习拿下图灵奖实至名归。在我个人看来,Jurgen Schmidthuber 被遗漏是一个遗憾。不管你对 Schmidthuber 有何看法,我觉得他有时是会让人感到尴尬,但他对深度学习领域的贡献毋庸置疑。
而且,所有这些家伙都很安静,Hinton 终于开了 Twitter 账户,但是他一向谦虚低调,并没有发布任何我认为不真实或过于热情的推文。Yann LeCun 偶尔推广他在 FAIR 的研究,但也没什么不寻常的。同样,Bengio 在社交媒体上并不活跃。
我关注的其他人也很安静,李飞飞去年秋天结束了在谷歌云的工作并回到斯坦福,而吴恩达则异常安静:也许是因为他最近喜得千金——我真诚地祝贺他们夫妻两个,两个月前我自己也有了一个孩子,我知道这是多么快乐的事,但也认识到这个 baby 可能会打乱他每周 90 个小时的工作安排,从而导致 AI 奇点到来的延迟。
过去几个月,人工智能领域最热闹的一系列活动围绕 OpenAI 和特斯拉展开。
滑稽的事情
OpenAI——一个非营利性组织,其使命是解决通用人工智能(AGI)问题并确保所有发现对公众开放,而不是由一些作恶的公司从中渔利。OpenAI 在 2 月份发布了文本生成模型 GPT-2。令所有人惊讶的是,他们没有发布训练权重,理由是担心可能发生误用或在研究人员和 AI 群体中引起较大争议。我不确定这些人为何声称“开放”,却未发布模型的关键部分(顺便说一下,如果他们不发布完整的模型,那我也可以怀疑 GPT-2 是使用亚马逊的众包平台Mechanical Turk来实现的 。)即使 GPT-2 生成了看似合理的文本,我也不确定如何滥用它来生成虚假新闻或垃圾邮件,或者真正将其用于娱乐之外的任何事情。
不管怎么说,最近 OpenAI 显然已经不再开放了,开始打起了盈利的主意。是的,这个被认为是十九世纪的普罗米修斯的组织,一群公正无私的研究员努力为整个人类点燃 AI 之火的修道院,从此变得不再开放,而是为了获利。但是,他们仍然坚持宏伟的使命,因为其利润将被限制——每个投资者最多只能获得成本 100 倍的回报。我能想到这背后的唯一原因,就是他们不能再作为非营利组织筹集资金了。
让我们暂时放下这样一个事实,即到目前为止,该公司的利润为零,并且组织形式和任何能想象到的创业公司不一样(而是像一个研究实验室)。这也让我们得到了一个令人惊喜的采访,在这篇文章中,Sam Altman——一个和湾区联系紧密的人,他曾经营过 Y-combinator,现任(不再开放的)OpenAI 的首席执行官,他为我们贡献了这个炒作周期的一些金句。以下是其中的精华部分:
例如被问到,OpenAI 计划如何赚钱(我们想知道它是否可能授权其部分工作的许可),Altman 回答道,“老实说我们不知道。我们从未有任何收入。目前也没有盈利计划,不知道有朝一日会如何产生收入。“Altman 继续说道,“我们向投资者做出了一个软性承诺(soft promise),'一旦我们建立了一个通用的智能系统,我们会基于它寻找获得投资回报的方法。”当人群一阵爆笑时,Altman 指出这听起来像是影视剧《硅谷》的一幕,但他补充说,“你可以笑。没关系。但它确实是我真正相信的。“我不知道要说什么。我确定找出如何产生收入的方法应该比弄清楚 AGI 要容易得多,但不是从炒作泡沫的扭曲逻辑中得出。简而言之,这个命题是:我相信我们可以建立 AGI,虽然我真的没有任何证据,但我真的坚信,如果你给我们数十亿美元,我们就可以做到。
我也希望我能相信这一点,但不幸的是这并不能说服我自己,我认为 OpenAI 已经变成了一个彻头彻尾的骗局。OpenAI 一些员工的推文进一步证实了这一判断:
Wojciech Zaremba,一个曾经在纽约大学时非常理性的人(我在2015年与通过几封电子邮件),现在已成为“信徒”。上面的这条推文漏洞百出,很难想象一个对数据和现实有理解,有信仰的科学家竟会说出这样的话。但这就是这些看似聪明的人,他们相信湾区的回音室效应(回声室效应:在一个相对封闭的环境上,一些意见相近的声音不断重复,并以夸张或其他扭曲形式重复,令处于相对封闭环境中的大多数人认为这些扭曲的故事就是事实的全部),而且成千上万的新人会盲目追随。
具体来说:上述方法有数百万种(我甚至不确定“方法”的含义)可能并不奏效(而且有大量证据表明确实不起作用)。一个潜在的原因:即使他们拥有所有这些数据,也很可能存在偏见,因为人们刻意避免了边缘情况。另一个可能的原因是:边缘情况是一个非常稀疏的集合,在统计上被“非边缘情况”所淹没。深度学习同时简单地优化所有数据点上的总损失,可以完全清洗掉特殊情况,并且每个特殊情况可能需要自己的数据进行重新平衡/损失函数调整。此外,另一个原因是,即使在路上有 50 万辆特斯拉,收集了所有的驾驶数据(实际上并没有),如果边缘情况是长尾且不稳定的,它不能包含所有边缘情况。(这类似于你可以在历史股票市场数据上训练你想要的所有模型,但当你用真钱赚钱时,你可能比想象的更快破产)。
另一个原因是道路上是人类司机的边缘情况不同于道路上是自动驾驶车的边缘情况,并且确实在不断变化。此外,也许最不明显的原因是他们使用的特定深度网络可能不具备表达它需要表达内容的能力(即使假设其拥有训练需要的所有数据)。感知器自80年代就已非常有名并作为通用的近似器,但它采用了非常特殊的微调架构 ConvNet,以及一系列技巧来改善收敛性,并用足够数量的可训练参数来解决 ImageNet 问题。即使今天也没有通用的全连接多层感知器能够学习所有任务。即使拥有大量数据,也需要进行大量的调整和元参数搜索才能解决问题。
最后,即使原则上这一切都是可行的,但目前尚不清楚这是否可以在特斯拉内置计算机上实现。 其他厂商的自动驾驶车辆都使用了激光雷达,虽然价格昂贵,但它解决了特斯拉试图通过 AI 解决的大部分问题(例如避障和可穿越性),成熟的游戏 GPU 都可以提供比特斯拉最新硬件更强的计算能力。然而,根据我们的数据,很明显没有产品接近完全自动驾驶。所以,这就是为什么特斯拉的自动驾驶方法不一定有效的原因,这是任何一个称职的的数据科学家即使在喝过一瓶伏特加之后都能背出来的原因。
说到特斯拉的自动驾驶,现在有一些大胆的宣言,例如特斯拉将在 2020 年将拥有 100 万辆自动驾驶出租车,但我认为这种可能性为零。我已经表达了对 Elon Musk 以及他疯狂的承诺的看法,我不想在这篇文章中浪费时间(坦白说我不想引起特斯拉粉丝的关注,我要让他们活在自己的幻想世界)。
但是,我们不妨从另一个角度来看特斯拉,因为今年早些时候有了一些有趣的进展:麻省理工学院的研究科学家 Lex Fridman 发表了一项研究,他声称(与几位合著者一起)与大量描述人机交互的文献相反,使用 autopilot 的司机依然能保持保持警惕和专心。该研究本身存在很大争议,如Anima Anandkumar(英伟达研究主任)试图劝他将这项研究在任何华而不实的炒作之前提交给同行评审,为此她在 Twitter 上被 Lex 封杀。
当这项研究成为头条新闻时(让我们强调一下:一项未被评审的研究),Fridman(一个基本公开的特斯拉粉丝)发推特说,特斯拉和马斯克都与这项研究无关(这对特斯拉是有利的),随后删除了那些推特,然后发了一些关于诚信的东西(也许是因为他理所当然地觉得有人在质疑),而两周后,他被邀请和马斯克一起上播客节目,然后他自己被邀请去见 Joe Rogan。他利用这两个场合无耻地推销自己,这也是他一直在做的事情。
我不会在这里详细介绍论文本身的细节,有兴趣的读者可以看看 Duke Cummings 的一个很棒的播客采访,这位杜克大学的人机交互教授详细介绍了这篇论文的缺陷。
基于上述 AI 领域的发展,我正式将 Lex Fridman 列为 2019 年人工智能领域最大的“小丑”候选人。尽管现在仍是年中,但我认为他获胜的几率非常大。
回到特斯拉,NTSB 发布了佛罗里达特斯拉撞人致死案的初步报告,表明(毫无意外)autopilot 确实是引起这一事件的原因。这至少是第四次有记录在案的 autopilot 致死事件。虽然这在总体上看来不算很多,但应该注意的是,凯迪拉克的一个类似的 ADAS 系统——超级巡航(Super Cruise)在写这篇文章时的报告结果为零伤亡(甚至没有看起来是系统故障引起的事故)。微妙的区别在于 Super Cruise 有一个驾驶员监控系统,可以确保驾驶员保持警惕,而特斯拉则没有。
此后,又有两家 AI /机器人公司 Jibo 和 Anki 倒闭了。Jibo 对我个人而言是一个特别有趣的案例,因为当我在看到他们的众筹平台活动时,我就知道它的结局。该项目由麻省理工学院的研究员 Cynthia Braezeal 创立,该项目启动之初便获得了大家的信任,但他们当时承诺的功能甚至现在也根本不可能实现,尽管如此,这家公司依然获得了约 7200 万美元的资金。
麻省理工学院到底是怎么了?先是 Cynthia Braezeal,他声称是机器人技术专家,但却没有意识到他给 Jibo 的承诺显然并不现实,之后是 Lex Fridman 把自己变成了一个小丑(虽然麻省理工学院表明,他只是一名聘请的研究科学家,而不是麻省理工学院的毕业生)。
除此之外,据报道,安大略省政府决定削减对人工智能的支出,其中包括 Hinton 的 Vector Institute,这引起了人工智能界的极大愤怒。这真的只是即将到来的AI寒冬的第一次严重冻伤,我建议所有为此愤怒的人应该多找些御寒的衣服,或者换份工作。
总结
这就是 2019 年中人工智能所处的状态。正如我所料,这一领域变得越来越荒谬,基本上是一个小丑秀。我想,我们很快就会知道,就像我一开始就在博客里说的一样,所有人工智能泡沫确实只是一个笑话。
原文链接:https://blog.piekniewski.info/2019/05/30/ai-circus-mid-2019-update/(*本文由AI科技大本营编译,转载请联系微信1092722531)