ernestlishun 2019-12-17
机器之心报道
机器之心编辑部
近日,机器学习资源网站 Papers with Code 宣布正式并入 Facebook AI。Papers with Code 创立仅一年多,凭借着丰富的开放资源和卓越的社区服务,已成为机器学习研究者中最常用的资源网站之一。
Papers with Code 正式加入 Facebook,这足以说明随着机器学习领域论文数量的剧增,如何快速获取想要的论文极其重要。机器之心之前也从 state-of-the-art 出发,尝试采集各领域的顶级论文,并希望有助于读者获取最新的研究成果。
关于机器之心「SOTA 模型」项目,读者可阅读:
不论是 Papers with Code 还是机器之心的「SOTA 模型」,甚至开源的 ArXiv Sanity、ArXiv Vanity,这些工具都旨在提升获取研究成果的效率与体验。可以想象,随着机器学习社区的扩展,我们会应用更多的 NLP 前沿成果构建更强大的应用,这是一个美妙的循环。
Papers with Code 加入 Facebook AI
14 日,Papers with Code 的两位联合创始人 Robert Stojnic 和 Ross Taylor 在 Medium 上发布公开信,宣布 Papers with Code 正式加入 Facebook AI。
联合创始人 Robert Stojnic 和 Ross Taylor 公开信。
在信中,两位联合创始人表示:
今天,我们很高兴地宣布,Papers with Code 将正式加入 Facebook AI,以加速我们的增长。Facebook 一直以来是再现性和开放访问的拥护者,并且在代码和模型研究及发布方面处于领先地位。我们在发展战略上具有高度的一致性,希望明年双方可以共同前进。
随后,Facebook 官方推特的回复也证实了这一事件。
@Facebook AI:「我们也很高兴,欢迎团队的加入!」
Papers with Code 是什么?
Papers with Code 建立于 2018 年 7 月,初衷是希望能够帮助机器学习的爱好者跟踪最新发布的论文及源代码,快速了解最前沿的技术进展。网站广泛涉及了各类机器学习任务,包括计算机视觉、自然语言处理、医疗、方法(Methodology)、语音、游戏、图、时序、音频、机器人、音乐、推理、计算机代码、知识库、对抗等方面的内容。
网站将 arXiv 上最新的机器学习论文与 GitHub 上的代码(TensorFlow/PyTorch/MXNet 等)对应起来,让用户可以按标题关键词查询,或者按流行程度、GitHub 收藏数排列「热门研究」。对于所有来到 Papers With Code 网站上的机器学习爱好者,网站所有内容都是可编辑和版本化的。用户可以从中发现好的任务和最优结果,或者学习一些以前未发现的研究精华。
至今为止,Papers with Code 累积了 18000 篇论文、1000 项任务和 1500 个排行榜,已成长为最常用的机器学习资源网站之一。
根据公开信内容,Papers with Code 并入 Facebook AI 后,将继续保持平台独立性,相关服务、社区和网站的运行及互动方式都不会改变,「双方会在保持战略高度一致的基础上共同前进」。
来自伦敦的初创企业 Atlas ML
Papers with Code 网站背后的公司名为 Atlas ML,与网站同期创办,创始人为 Robert Stojnic 和 Ross Taylor,公司地址位于英国伦敦。
除了资源网站,Atlas ML 也正在延伸其业务范围,包括评估服务(evaluation service)sotabench,以及借助前沿 NLP 技术提取和检索深度学习新方法与新结果。
创建者之一 Robert Stojnic 在 2012 年于剑桥大学取得计算生物学博士学位。2018 年 7 月创办 Atlas ML 及网站 Papers with Code,目前担任 Atlas ML 的 CEO 职位。
Ross Taylor 在 2014 年于剑桥大学取得经济学硕士学位,毕业后曾在金融行业从事软件开发和机器学习模型设计等工作,2018 年联合创办 Atlas ML,目前担任 CTO 一职。
机器之心「SOTA 模型」项目
与 Papers with Code 特别关注开源代码不同,机器之心的「SOTA 模型」会关注算法本身的效果。因为模型算法在不同数据集、度量方法下表现都不同,因此将它们归入对应的任务、数据集、度量方法,我们可以清晰地了解各个模型的优势与特点。
机器之心也曾测试过 SOTA 模型,看看我们到底能基于它获得什么样的信息。我们从机器翻译与生成对抗网络出发,分析了当前顶级模型的主要思路与发展路径。比如说机器翻译,我们确实能体会到在 Transformer 之后,机器翻译顶级模型主要在半监督、预训练语言模型、训练机制等几个方向做出了进一步的探索,它们的效果都能达到当前 SOTA。
根据 SOTA 模型获得的更多洞见可查阅文章:
Papers with Code 确实非常方便,尤其是那些非常受关注的热门研究。但我们认为,依靠自动爬取或用户提交是远远不够的,很多重要研究还是有可能忽略掉。因此机器之心希望结合目前已有的知识库、新闻库等模块,结合编辑们的日常论文处理结果,为 SOTA 提供更加新鲜与高效的信息。
最后,与 Papers with Code 一样,机器之心的「SOTA 模型」也在不停地改进中。Papers with Code 能获得Facebook AI 的帮助,我们也希望能获得读者们的使用反馈,这样才能继续为读者提供体验更佳的机器学习资源。
参考链接:https://medium.com/paperswithcode/papers-with-code-is-joining-facebook-ai-90b51055f694https://atlasml.io (https://atlasml.io/)