Winifred 2019-11-18
过去几年一直是人工智能爱好者和机器学习专业人士的梦想之旅。这些技术已经从一个概念发展成为将会席卷未来的潮流,并且正在影响着今天的数百万人的生活。各国现在都有专门的人工智能部门和预算,以确保他们在这场比赛中保持相关性。
数据科学专业人员也是如此。几年前 - 如果你知道一些工具和技术,那么你会觉得舒服。但是现在不是这样了!在这个领域发生了太多的事情,并且有太多的事情要跟上脚步- 有时会非常令人难以置信。
这就是为什么我想从数据科学从业者的角度退一步来看一下人工智能的一些关键领域的发展。这些发展都是什么?2018年领域内发生了什么,2019年将会发生什么?
PS:与任何预测一样,这些都是我的看法。这些是基于我试图把这些点连接起来。如果你有不同的观点 - 我很乐意听到它。请告诉我你认为2019年可能会发生什么变化。
让机器解析单词和句子似乎一直只是一个梦想。语言中有太多的细微差别和方面甚至有时候人类都难以掌握。但2018年确实是NLP的分水岭。
我们看到了一个又一个显著的突破 - ULMFiT,ELMO,OpenAI的Transformer和Google的BERT等等。将转移学习(将预先训练好的模型应用于数据的艺术)成功应用于NLP任务,为潜在的NLP打开了无限的应用大门。我们与Sebastian Ruder的博客进一步坚定了我们的信念,那就是他的领域在最近的时间里走了多远。作为补充说明,他的博客是所有NLP爱好者必听的。
让我们更详细地看一下这些关键的发展。
由Sebastian Ruder和fast.ai的Jeremy Howard所设计,ULMFiT是第一个在2018年启动NLP转移学习党的框架。对于没有经验的人来说,它代表通用语言模型的微调。Jeremy和Sebastian在ULMFiT中真正地使用了Universal这个词 - 该框架几乎可以应用于任何NLP任务!
关于ULMFiT的最佳部分以及我们即将看到的后续框架是什么?你不需要从头开始训练模型!这些研究人员做了很多的努力 - 将他们的学习成果应用到你自己的项目中去。ULMFiT在六个文本分类任务中的表现优于最先进的方法。
想要猜猜ELMo代表什么吗?它是语言模型嵌入的缩写。很有创意,不是么?除了它的名字类似于著名的芝麻街角色。ELMo在一发布的时候就引起了ML社区的注意。
ELMo使用语言模型来获取每个单词的嵌入,同时还考虑单词与句子或段落的上下文关系。语境是NLP的一个重要方面,以前大多数人并没有抓住这一点。ELMo使用双向LSTM来创建嵌入。
与ULMFiT一样,ELMO显著提高了各种NLP任务的性能,如情绪分析和问题回答。
不少专家声称BERT的发布标志着NLP进入了新时代。继ULMFiT和ELMo之后,BERT凭借其性能让它的竞争对手们大吃一惊。正如原文所述,“BERT在概念上简单且经验强大”。
BERT在11个(是的,11个!)NLP任务中获得了最优秀的结果。看看他们的结果对阵的基准:
SQuAD v1.1排行榜(2018年10月8日)
测试EM
测试F1
第一名合奏团 - BERT
87.4
93.2
第二名合奏团 - nlnet
86.0
91.7
第一名单身模型 - BERT
85.1
91.8
第二名单身模特 - nlnet
83.5
90.1
有兴趣开始学习么?你可以使用PyTorch实现或Google自己的TensorFlow代码尝试在你自己的计算机上复制结果。
我很确定你们很像知道BERT在这一点上代表什么。