allians 2018-04-10
MIT-IBM Watson AI实验室的研究人员希望让计算机更“人性化”。研究人员目前正在开展一项计划,该计划将帮助计算机了解并识别动态事件。
麻省理工学院CSAIL首席研究科学家Aude Oliva表示,“人类的成长过程,会不断跟人和物体打交道,听到人和物体产生的声音,获得视觉和听觉体验。人工智能系统需要以相同的方式学习,并获得视频和动态信息。”
Moments in Time数据集的研究是MIT-IBM Watson AI实验室对人工智能承诺的一部分。该实验室专注于四个研究领域:人工智能算法,物理API,人工智能在工业中的应用以及通过人工智能推进共享的繁荣。Moments in Time数据集专注于构建大规模数据集,使AI能够识别和理解视频中的动作和事件。目前,该数据集由100万个标记为3秒的视频组成,其中包括人物,动物和物体。
Oliva补充说:“这个数据集可以作为开发人工智能模型的新挑战,这些人工智能模型可以扩展到复杂程度和抽象推理,人类每天都会处理这些AI模型。活动可以包括人物,物体,动物和自然环境。它们可能在时间上是对称的。例如,打开意味着以相反的顺序关闭。它们可以是短暂的或持续的。
据研究人员介绍,这个数据集花了一年多的时间才整合在一起,并面临许多技术问题,例如选择动作类别,在哪里可以找到视频,以及如何,以及如何组合数组,让AI系统以无偏见的方式学习。
Oliva指出,“IBM来到麻省理工学院,对开发基于视觉的人工智能系统的新想法感兴趣。我提出了一个项目,在这个项目中我们建立了数据集来提供关于世界的模型。在这个级别以前没有完成过。这是一项新颖的事业。现在我们已经达到了100万个动作视频数据集的里程碑,用户可以访问我们的网站,下载数据集和我们的深度学习计算机模型,用以识别物体动作的研究。”
展望未来,研究人员期望数据集得到改进,并为具有各种抽象级别的AI系统提供更多功能。据研究人员称,目前Moments in Time数据集仅仅是第一个版本,并且已经是最大的人类注释的视频数据集之一。这将成为开发学习算法的基石,它可以建立事物之间的类比,通过想象合成新事件,并完成场景解释。
MIT-IBM Watson AI实验室的首席研究员Dan Gutfreund说,“我们期望Moments in Time数据集能够使模型更加深入地理解视频中的动作和动态。”