86387118 2019-12-02
【新智元导读】纽约大学心理学与认知科学教授、畅销书作家加里·马库斯认为,在关于AI研究的新闻报道中,过度的宣传和错误的信息将导致AI寒冬再来。而问题不仅出在媒体,研究人员和AI领军人物持默许态度甚至煽风点火。你认同马库斯的观点吗?来 新智元AI朋友圈 和行业大咖讨论吧~
“过度的宣传和错误的信息将导致AI寒冬再来”,纽约大学心理学与认知科学教授、畅销书作家加里 · 马库斯 (Gary Marcus) 最近在The Gradient上撰文,批评媒体在报道AI进展时常常倾向于将每一个微小的新进展描述为将从根本上改变我们的世界的巨大的胜利。
这类夸大的报道满足了读者的阅读兴趣,却带来了不容忽视的危害:如果公众、政府和投资界认识到,他们被灌输了关于人工智能的不符合现实的观念,那么新一轮的AI寒冬可能就会开始。
并且,这一切已经有预兆,包括聊天机器人、医疗诊断、假新闻检测器、自动驾驶汽车等等,过度的承诺往往导致了项目本身的死亡。
但过度炒作AI的问题不仅出自媒体和大众,马库斯表示,许多AI领域的领军人物也在煽风点火。
无论是人工智能还是纳米技术,媒体常常倾向于在报道每一个微小的新进展时,描述为一次巨大的胜利,将很快从根本上改变我们的世界。当然,偶尔也有新发现被低估。晶体管刚出现时并没有掀起多大的波澜,也没有多少人一开始就意识到互联网的全部潜力。但对于晶体管和互联网,有很多小的结果是被夸大了的,有很多产品和想法从未兑现,像冷聚变这样的所谓进步还没有被复制,在死胡同里进行的实验最终也不会改变世界。
晶体管
当然,部分原因是因为公众喜欢革命性的故事,对报道微小进步的新闻哈欠连连。但研究人员往往是同谋,因为他们过于依赖宣传,而这会对他们的研究资金甚至薪水产生重大影响。在很大程度上,媒体和相当一部分研究人员都对这种现状感到满意,有源源不断的结果一开始被过度宣传,然后被悄悄遗忘。
让我们来看看过去几周的三个独立结果,这些结果被主流媒体以从根本上就具有误导性的方式报道出来:
三体问题
不幸的是,过度炒作AI的问题已经超出了媒体本身。事实上,自AI诞生以来的几十年里,许多(当然不是全部)AI领域的领军人物都在煽风点火。
这可以追溯到早期的创始人,他们认为我们现在可以称之为通用人工智能(AGI)的时间不会超过几十年。1966年,麻省理工学院(MIT)人工智能实验室给Gerald Sussman布置了一个著名的任务:在一个夏天内解决视觉问题;众所周知,机器视觉在50年后仍然没有得到完全解决。在第一个乐观的预测发布60年后,通用AI似乎仍需要几十年的时间。
这种趋势当代仍在继续。以下是一些近期AI历史的例子,来自一些最著名的人物:
与此同时,那些自己工作被歪曲的研究人员的反应往往是沉默,甚至是默许。Open AI的首席科学家llya Sutskever在推特上说:“《经济学人》采访了GPT-2,这次采访很有意义。”当我问他,在了解《经济学人》采访中的例子是人工选择的之后,他是否坚持自己的评论时,他没有回答。
一个多月前,OpenAI的首席技术官Greg Brockman亲自挑选了自己,他在推特上说:“ 一篇GPT-2写作的文章已提交给《经济学人》青年写作竞赛…一位不知道该文章是由AI写作的评委给出了这样的评论:“措词有力,并用证据支持了主张,但这一想法并非具有独创性。 ”他没有注意到的是,其他一些评委对同一篇文章持相当否定的态度。例如,文章“没有足够快地抓住要点;观点不是新颖,太含糊,修辞问题过多”(评委2),而另一位评委指出“这篇文章没有从根本上回答问题,也没有提出新颖的想法,写作/结构也不是特别好。此外,我认为文章并没有表明对现有气候政策或IPCC出台的科学文献的深刻理解。”(评委6)。
研究社区的其他习惯进一步证实了不准确的“人工智能就在我们身边”的说法。例如,DeepMind经常写一些文章,热情洋溢地谈论某项工作的潜力,但缺乏有关潜在限制的章节,而这些章节是大多数严肃科学工作的结论部分的主要内容。相反,他们常常通过推论来表明他们正在努力解决问题和重大挑战,暗示他们使用的技术应该解决其他重大挑战——而不考虑其他问题,如自然语言理解,这与他们一直关注的游戏问题有很大的差异。他们发表在《自然》(Nature)上的有关AlphaGo和星际争霸(StarCraft)的论文都遵循了这一策略,基本上没有讨论潜在的限制。
幸运的是,并不是该领域的所有人都夸大了自己的工作;在过去一年左右的时间里,我看到了Pieter Abbeel和Yoshua Bengio的精彩而平衡的演讲,他们都指出了深度学习(和深度强化学习)做得很好,但同时也明确指出了未来的挑战,并坦率地承认我们仍有很远的路要走。(Abbeel强调了实验室工作和机器人在现实世界中工作之间的差距,Bengio强调了因果关系的必要性)。我只是希望这些是常态而不是例外。如果不是这样,政策制定者和公众很容易就会感到困惑;由于这种倾向于夸大而非低估结果的报道,公众开始担心在可预见的将来AI会取代许多工作,而这不会发生。
为什么从业人员应该关心?毕竟,对AI的炒作给每个人都带来了好处,不是吗?公众的热情意味着更多的资金投入研究,更多的人致力于人工智能;如果有更多的钱和更多的人,我们将更快地实现通用人工智能。有什么危害呢?
我认为这是“公地悲剧”(the tragedy of the commons)的一个版本,例如,许多人在某一特定水域过度捕捞,在短期内为他们自己生产了更多的鱼,直到整个鱼类种群崩溃,所有人都要受苦。人工智能的风险在于:如果公众、政府和投资界认识到,他们被灌输了一种关于人工智能优势劣势的不符合现实的观念,那么新一轮的AI寒冬可能就会开始。(第一次AI寒冬是在1974年,之前经历了一轮炒作和失望的周期。)
我们已经看到了多个事后看来可能是预兆的事件:
Facebook虚拟助理M在2018年被关闭
放射科医生检查结果
Waymo的自动驾驶车
现在,政府、大公司和风险投资家正在对人工智能进行大规模投资,主要是深度学习;如果他们开始察觉到一种过度乐观的模式,那么整个领域可能都会遭殃。如果无人驾驶汽车和对话机器人只晚一两年出现,没问题,但在无人驾驶汽车、医疗诊断和对话人工智能方面,实现的日期越晚,新的AI寒冬的风险就越大。
到目前为止,关于AI的错误信息很普遍。虽然夸大报道并不是到处都是,但即使是知名媒体也经常歪曲结果;企业的利益经常导致这个问题。个别的研究人员,甚至一些最杰出的研究人员,有时也会这样做,而当他们的研究结果被误解时,更多的人只是静静地坐在一旁,不去公开澄清。
错误的信息并不是无处不在的——一些研究人员直言不讳地指出研究的局限性,一些报道准确地描述研究结果,诚实地承认局限性;但是把每一个渐进性的进步都解释为革命性的突破,这一趋势普遍存在,因为人们都喜欢阅读这类故事。
最终,其结果可能会削弱该领域,自相矛盾的是,在最初激发公众兴趣之后,反而引发了AI寒冬的到来。
在Rebooting AI一书中,Ernie Davis和我提出了6条建议,每一条都针对读者、记者以及研究人员应该如何平等地评估他们获得的每一个新结果,并在论文讨论的“局限”部分提出同样的问题:
作者介绍:加里·马库斯(Gary Marcus)是一位科学家、畅销书作家和企业家。他是Robust.AI公司的创始人和首席执行官。他是机器学习公司Geometric Intelligence的创始人兼首席执行官,该公司于2016年被优步收购的。他是五本书的作者,包括 The Algebraic Mind Kluge、The Birth of the Mind、《纽约时报》畅销书Guitar Zero,以及他最近与Ernest Davis合著的新书 Rebooting AI。
原文链接:
https://thegradient.pub/an-epidemic-of-ai-misinformation
寒冬里,这个最酷AI创新平台招人啦!新智元邀你2020勇闯AI之巅
在新智元你可以获得:
新智元邀你2020勇闯AI之巅