我相信 2017-08-24
我一直觉得 David Marr 有点像是「神经科学里的图灵」。
1976年,Marr 提出了一个非常有名的概念:
了解任何复杂的生物系统都需要经过三层分析:
今天——特别是感觉人人都懂计算机的知乎上——这个概念极其容易理解。
但这并不是说「大脑就像是机器一样。」
机器和大脑有根本性的区别;机器的使命是解决一个问题,做到最好、最快、最省;大脑的使命是,在未出生之前,就用一个答案去面对无数未知的问题。前者关键在「答案」,后者关键在「问题」。
虽然「大脑的感知功能 像是一个 贝叶斯机器 (Bayesian machine)」这个概念因为 Karl Friston 的 Predictive Coding (预测编码)在大脑感知研究中称霸一方(我曾在《大脑无时无刻不在「预测」世界 》中提到过业内 @Friston 过度的现象)。但 这句话并不是说「大脑是机器」,而是指「在算法层(the algorithmic level)上,大脑的感知功能可能类似贝叶斯统计」。
虽然方向不同,但计算机学家和神经科学家走在同一条路上。
从某种程度来看,我们都在研究一个问题就是智能的感知和认知是如何工作的。只是,again,一个是有问题、需要找到答案;而另一个是已经有了「答案」,需要问正确的问题。
就现在看来,在找到那个问题和那个答案之前,我们都还有很长的路要走。如果超AI是AI的奇点,那它绝对不会在神经科学奇点带来之前,而遗憾的是,我们连神经科学的奇点到底是什么都不明确。
神经科学的发展离不开AI,AI的进步也离不开神经科学。
神经科学(或者是说 「生物智能」或「大脑智能」)对于发展人工智能(以下简写为 AI)的好处有两大方面:
第一个方面,在「如何智能」上,神经科学已经有很多话可以说。换言之,神经科学可以为人工智能带来启示,带来全新的算法和结构,这些算法或结构可能 独立于传统的、当下主流的、以数学逻辑为基础的方法,也有可能与之相辅相成。譬如说,人类大脑是如何学习理解新语言的?当我们明白这个认知功能之后,就可以将算法移植到 AI 上,或是这套算法至少是解决AI语言理解的一个优秀的备选。
这个方面非常好理解,往早期一点讲,深度学习和强化学习就是两个很好的例子。但神经科学对AI的影响并没有、也不会、仅限于AI早期的发展。当下,神经科学在注意力、情节记忆、工作记忆和连续学习上的研究也对当下的AI研究有实际影响。
这部分详情可以参考 Demis Hassabis (Alpha狗的亲爹)在7月19日《神经元》上发的综述《由神经科学启发的人工智能(Neuroscience-Inspired Artificial Intelligence)》;如果大家感兴趣,我可以慢慢把这篇综述的内容整理到专栏上来,但其实这篇综述 虽其内容极为充实,但调理清晰语言易懂,若非语言障碍,并不需要旁人整理,直接阅读也不应该有任何问题,裂墙推荐。
上个月有不少技术类媒体报道这篇综述,但总觉得口吻怪米怪眼的。我还发现,新浪新闻将相关文章(题目:《只有了解大脑 才能开发更强AI》)放在「体育–>棋牌」这个类别之下。额,alpha狗是下围棋的但并不是AI只做棋牌生意啊。
人工智能被炒到神乎其神,Hassabis这个神人脱不开关系。大多数人想到Hassabis,第一个反应估计是他是个人工智能专家、计算机学家,但别忘了,他博士是认知神经科学,主要研究记忆和想象,还把论文发在Science,是当年的全球最有影响力的10大研究之一。
最近谷歌在伦敦招认知神经科学博士,工资高的发指。剑桥和UCL作为Hassabis的母校,搞人工智能和认知神经科学的都被他挖的千疮百孔了。(快让我也成为其中一个疮一个孔吧!)
咳咳。
第二个方面,在「如何智能」这个问题上,大脑是一个已知的高分答案。对于已有的AI技术,如果我们能在大脑中找到类似的结构、算法,那么便能够认可这个技术在修建「通用人工智能系统」中的一席之位。
这么讲像是说,神经科学可以给某些杰出的人工智能算法或结构颁发「大脑认可」的认证书一般。那这个认证有多大实际价值呢?一定有什么能够超越我们自己拥有的智能;大脑一定不会是智能的唯一、最佳答案。
但是,「通用人工智能」(简称「强AI」,或我们可以亲切地称它为阿强)应该需要首先达到人类大脑的水平。(如果你不认识阿强,可以参考一下今天我发的另一篇《致快要被AI狂潮淹没、却不知道自己在说什么的我:什么是「技术奇点」?》)
在离完成强AI还有一定距离的当下,学界需要一个长期研究计划,如何筛选研究方向则是一个复杂的问题。现在有很多算法和结构,它们都有可能是强AI的prototype的零件。如果一个算法,虽然它在现阶段并不是最优的,但如果我们发现在大脑这个寸土寸金的地方它都有核心位置,那么说明它至少本质上有适合强AI的地方(这么说有点怪怪的),优先优化它、深入了解它,会是个减少绕弯路的策略。
当然,强AI并不一定需要拥有和生物体一样的智能系统。条条大路通罗马。但,大脑是一个很好的向导。说回片头提到的,Marr 的「了解系统运作的三步骤」。对于人工智能来说,需要的是前两层,即,这个(大脑认知功能)的目标是什么?算法是什么?(在研究大多数认知功能的领域中,我们还正在挣扎进入第二层)
再说回关于大脑和机器之间的联系。虽然我坚信大脑与机器不同,但从一开始学习神经科学,我就越来越觉得难以回答这个问题:
生命是什么?生命与非生命之间,是什么?
智能是什么?会开车就是智能么?