sffwul 2016-02-17
围棋是世界上最古老的游戏,起源于2500年前的中国。现今最新的人工智能——谷歌DeepMind的AlphaGo——则创造了一个里程碑,在此之前,人们相信计算机不可能学会这个游戏,更别提以5:0的成绩打败欧洲冠军樊麾。「围棋的规则非常简单,」梅西大学研究员、计算机科学博士的Chris Massison说道,「但正是这种简单增强了它的复杂性。」在谷歌研究室于1月27日《自然》上所发表的一篇新的论文中,Maddison是第三作者,这篇文章详细解释了AlphaGo在游戏中的成功,并在游戏中(甚至各拥有相同的棋子)以99.8%的比例击败了之前的高科技Go机器人。
围棋从基本上说是一个征服领地的故事。这个游戏需要两个棋手,在19乘以19的网格上执白子或黑子占领土地。最终目标是利用棋子占领最多的领地以获胜。
「你也许认为直接最大化覆盖整个棋盘就可以,」Maddison解释道,「但是当你的棋子包围对方的时候,对方的棋子就成了你的猎物。因此,大师级棋手会巧妙地用自己的格局来掌控并连接自己的布局。」
人工智能研究利用游戏来作为微观测试已经有了很长的历史。游戏能够精确地定义并允许研究员来估测自己的成功。去年,谷歌的DeepMind教导机器学习并赢得了所有49个经典Atari计算机游戏。而围棋则一直以来都被人们视为人类能够胜于程序的最后一个经典游戏。
围棋之所以困难的部分原因是其结果的无限性。每一局的比赛都非常难于复制并重现。AlphaGo就在它从未见过的比赛中击败了樊麾。
「最明显要做的事情就是去检索所有可能的结果,但是这对于类似国际象棋特别是围棋这类的游戏并没有效果。」
AlphaGo与之前的Go机器人所不同的一点在于对于神经网络、分层计算和知识库的应用,而这一领域的领军人物则是Maddison的PhD导师,多伦多大学名誉教授、谷歌杰出研究员Emeritus Geoffrey Hinton所推进的领域。
「神经网络让我们减少了要调查的结果数量。但是它们同时也擅长通用化其并未见过的状态。因此这些神经网络学习规则与战术。它们并不仅仅只会记忆——它们还能够理解。」
AlphaGo仅靠自己是无法做到这么多的。但就像已在图像和语音识别上被验证的其他神经网络一样,最新的测试证明了这些系统的可靠性,而且它也可以用于从预防疾病到智能手机科技等诸多领域。「就像一个马达能移动非常巨大且非常重的东西——现在你能将其应用于更大、更复杂的事情上。」
在所有的作者中,还有来自多伦多大学的认知科学硕士、谷歌DeepMind团队的成员Timothy Lillicrap,计算机科学硕士校友、OpenAI(耗资10亿美元用于人工智能研究的非营利机构)的研究主管Ilya Sutskever。
去年,Maddison离开学校,到总部位于伦敦的谷歌DeepMind实习,他提到能成为这个团队中的一员非常激动,DeepMind在两年前还仅仅是一个小型项目,到今天已经拥有了许多研究员与工程师,成为了一个工业规模的项目,并且成果十分令人满意。
AlphaGo会在今年三月在此进行比赛,当它去挑战Lee Sedol——过去十年间最强大也是最天才的围棋棋手。「我并不怎么会下围棋,」Maddison承认,「我们所利用的科技需要下棋,而我并不需要。但是它告诉我这应该是我要更多去学习的兴趣所在。」