88397813 2020-09-23
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。
微软今天宣布,获得OpenAI GPT-3的独家授权。
毕竟也是投资10亿美元的金主爸爸,这个结果并不意外。
虽然目前尚不清楚具体授权许可内容,但声明中说了,这项协议将允许微软其技术为自身客户开放和提供更优的AI解决方案。
微软CTO、兼执行副总裁Kevin Scott在社交网络上也公布了这一消息。
不过,使用API的用户可以放心。
据The Verge报道,OpenAI表示,这笔交易对通过API访问GPT-3模型的用户没有任何影响,用户依然能够像往常一样使用API来构建应用程序。
而微软的「独家授权」意味着,可以访问GPT-3的底层代码,用来整合到微软的产品和服务当中去。
The Verge还预测道,微软看到了OpenAI工作的巨大价值,并且很有可能成为第一家,有可能是唯一一家,将其主要是实验性的研究工作转化为落地产品的公司。
除了宣布获得GPT-3独家授权之外,微软还表示,
OpenAI将继续通过Azure托管API提供GPT-3和其他强大的模型。
Kevin Scott还表示,接下来将扩展自己的AI平台,使AI技术民主化,开发新的产品、服务和体验。
还畅想了GPT-3可以释放的商业潜能,直接帮助人们写作、描述和总结大量数据、将自然语言转换成另一种语言等等,未来的可能性只会受限于人们的想法和方案。
此外,他还表示,大规模的实现这些,需要更多人的投入,不是任何一家大型科技公司所能承担的。
正如声明中所说,这只是一个开始。
去年,微软宣布向OpenAI投资10亿美元,共同构建一个新的Azure AI超算平台。
作为交换,OpenAI同意将其部分知识产权许可给微软。
在今年5月分的Build 2020开发者大会上,微软正式发布了AI超级计算机——由Azure托管,OpenAI共同设计的超算平台。
这台超级计算机的性能位列全球前五,弱于中国神威“太湖之光”和“天河2号”。
据息,这个超级计算机共包含285000个CPU核心、10000个GPU,每个GPU网络带宽为400Gb/s。
该超级计算机已经能够实现大规模AI模型训练,可深入了解语言语法、知识概念和上下午内容的细微差别。
当时,微软就表示,其将通过Azure AI服务和GitHub,进一步将大规模AI模型、训练优化工具和超级计算机资源释放出来。
于是,在微软和OpenAI通力合作下,GPT-3就这样诞生了,光参数达到了1750亿个。
并在7月正式发布了测试版。
有专业人士推测过,训练一个GPT-3模型需要「355个GPU年」 (一块GPU运行355年的运算量),光是训练费用就高达460万美元。
OpenAI前段时间表示,它正在试验API级别的保障措施,包括一种可以限制「有害语言」的过滤器。
虽然从GPT-3开放测试版以来,一直伴随着争议,但丝毫不影响程序员们对GPT-3的探索。
申请到的程序员们,有设计网站的,有代笔的,还有输出代码的……
一位来自旧金山的程序员小哥做了款名为debuild.co的网页制作软件,只需要和GPT-3「聊聊天」,它就能帮你把网站设计出来。
还有一个作家Liminal Warmth,找到了GPT-3做代笔。
只用了5小时,GPT-3就完成了超过1.5万个单词的内容,还get到了输出符合作者风格和逻辑的作品的独门技巧。
甚至,英国《卫报》还发表了一篇「独特」的文章《A robot wrote this entire article. Are you scared yet, human?》,作者:GPT-3。
对于这件事,有网友表示,这更像是需要钱来运作,所以将研究产品化。