小磨SBF直播馆 2018-06-08
新智元报道
编辑:李静怡
【新智元导读】今天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。
上周五,谷歌宣布与国防部Maven合同在明年到期后不再续约,并表示将发布关于使用AI的新道德准则。
今天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。
不仅如此,Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器或其他以人身伤害为主要目的的技术、违反国际公约收集或使用信息的技术,以及违反人权和国际法的技术。
Pichai在文中写道,“这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策”。
Pichai还表示,这些原则是谷歌和人工智能未来发展的正确基础。这种做法与2004年谷歌成立之初“创始人的信”中所提出的价值观一致。
谷歌云CEO Diane Greene也发表了题为《Incorporating Google’s AI Principles into Google Cloud》的文章,响应新的准则。
这篇谷歌AI新准则的文章,是为了回应之前谷歌内部员工以及随后公众对谷歌与美国防部的合作项目Project Maven。
该项目旨在建立一个类似“谷歌地球”的监测系统,让五角大楼的分析师能“点击建筑,查看与之相关的一切”,并为“整个城市”建立车辆、人员、土地特性和大量人群的图像。
谷歌在2017年9月底获得了Maven项目的合同,此后合作一直处于保密状态,直到今年有员工在谷歌公司内部沟通平台将这件事曝光出来。部分谷歌员工几乎是立即就站出来表示反对。之后,更有数千名员工签署请愿书,要求谷歌取消该项目的合同,数十名员工辞职以示抗议。
事件不断发酵,关于Project Maven是否有违谷歌成立之初立下的“不作恶”原则,讨论越来越多,越来越激烈。
根据新智元此前的报道,谷歌的高层曾非常支持Maven项目,因为这将让谷歌云在赢得更大的五角大楼合同的道路上走得更远,但他们同时也对外界如何评判谷歌参与军事项目十分担忧。
最终,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。
谷歌已经为Maven做了大量工作,并且取得不错的成果。根据Gizmodo获取的消息,谷歌已经构建了一个系统,检测专业图像标签所遗漏的车辆;谷歌的高级工程项目经理Reza Ghanadan在一封邮件中写道,几个案例表明,模型对专业标签错过的车辆检测率准确率能达到90%。
不过,谷歌将继续与美国政府和军方开展在网络安全、培训、退伍军人医疗保健、搜救和军事招聘方面合作。这家网络巨头正在争取两项数十亿美元的国防部门办公和云服务合同。
这些原则对公司将如何遵守规则提供了有限的细节。Pichai概述了谷歌应用AI的7个核心原则,包括要对社会有益,可以构建并测试安全性,避免产生或加强不公平的偏见等。Pichai表示,谷歌还将评估其在人工智能领域的工作,考察其技术“适应有害使用”的程度。
谷歌一名要求匿名的代表坦率地表示,该公司数月来一直在制定道德准则,并将聘请外部顾问进行内部审查,以确保人工智能准则得到执行。
AI是谷歌网络工具的重要组成部分,包括图像搜索和识别,以及自动语言翻译。但这也是其未来雄心的关键,很多都涉及到自己的道德领域,包括自动驾驶部门Waymo和谷歌Duplex系统,这个系统可以通过模仿人的声音完成预定晚餐的任务。
但谷歌的新限制似乎并没有减缓五角大楼的技术研究人员和工程师的速度,他们认为其他承包商仍然会竞相帮助开发军事和国防技术。美国国防部高级研究计划局副局长Peter Highnam表示,没有经营Maven项目,但因帮助发明互联网而获评的五角大楼代理机构称,DARPA的“有数百家(如果不是数千家)积极出价的学校和公司” AI等技术研究项目。
“我们的目标,我们的目标是创造和防止技术突袭。所以我们正在考虑什么是可能的,“DARPA信息创新办公室副主任约翰埃弗里特周三接受采访时说。 “任何组织都可以自由参与这个正在进行的探索。”
以下为谷歌CEO Sundar Pichai今天发布的署名文章:
AI的核心是可以学习和适应的计算机编程,它不能解决所有的问题,但拥有巨大的潜力改善我们生活。在谷歌,我们使用AI让产品更有用,从没有垃圾邮件并且更容易撰写的电子邮件,到可以自然对话的数字助理,再到突出有趣内容供你欣赏的照片。
除了我们的产品,我们正在使用AI来帮助人们解决紧急问题。一对高中生正在构建AI驱动的传感器来预测野外火灾的风险。农民正在使用AI监测牛群的健康状况。医生也开始用AI来帮助诊断癌症并预防失明。这些显而易见的好处是Google大力投入人工智能研发,并通过我们的工具和开源代码使其他人也能普遍使用人工智能技术的原因。
我们认识到,这种强大的技术对其使用也提出了同等重要的问题。人工智能如何开发和使用,将对未来多年的社会产生重大的影响。作为人工智能领域的领导者,我们深感重任。所以今天,我们宣布了七项原则来指导我们今后的工作。这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。
我们也意识到,这个领域是不断变化和不断发展的,我们将以谦逊态度对待我们的工作,对内对外都是如此,我们也愿意随时间的推移调整我们的方法。
AI应用的目标
我们将根据以下目标评估AI应用。我们认为AI应该:
1、对社会有益
新技术的应用范围越来越广,社会渗透率越来越高。人工智能的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的各种领域产生变革性的影响。当我们考虑AI技术的潜在发展和应用时,我们将考虑各种社会和经济因素,并将在我们认为整体可能的收益大大超过可预见的风险和缺点的情况下继续进行。
人工智能还增强了我们理解大规模内容含义的能力。我们将努力使用AI来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。我们将继续深入评估何时将我们的技术用于非商业情况。
2、避免制造或加强不公平的偏见
人工智能算法和数据集可以反映、加强或减少不公平的偏见。我们认识到,区分公平和不公平的偏见并不总是很简单,并且在不同的文化和社会中是不同的。我们将努力避免对人们造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向,能力以及政治或宗教信仰等敏感特征有关的人。
3、建立并测试安全性
我们将继续开发和应用强大的安全措施,避免造成危害的意外结果。我们在设计人工智能系统时会保持适当谨慎,并根据人工智能安全研究的最佳实践寻求开发它们。在适当的情况下,我们将在受限环境中测试AI技术,并在部署后监控其操作。
4、对人负责
我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将接受适当的人类指导和控制。
5、纳入隐私设计原则
在开发和使用AI技术时我们将融入隐私原则。我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。
6、坚持科学卓越的高标准
技术创新的根本在于科学方法和对开放式调查的努力,学术严谨、诚信和合作。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们致力于促进人工智能的发展,我们也追求高标准的科学卓越。
我们将与一系列利益相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过发布教育材料,最佳实践和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。
7、为符合这些原则的用途提供
许多技术都有多种用途。我们将努力限制可能有害或滥用的应用程序。在开发和部署AI技术时,我们将根据以下因素评估可能的用途:
我们不会追求的AI应用
除了上述目标之外,我们不会在以下应用领域设计或部署AI:
我们希望明确的是,虽然我们没有在开发用于武器的AI,但我们将继续在其他许多领域与政府和军方合作,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。这些合作是很重要的,我们将积极寻找更多方法来加强这些组织的关键工作,并确保服役人员和平民的安全。
长期的人工智能
虽然这是我们选择的应用人工智能的方式,但我们明白,在这场讨论中还有许多观点存在空间。随着人工智能技术的进步,我们将与一系列利益相关者合作,采用科学严谨、多学科方法提升这一领域的领导力。我们将继续分享我们在改进AI技术和实践方面的经验。
我们相信这些原则是我们公司和人工智能未来发展的正确基础。这种做法与2004年我们最初的“创始人的信”中提出的价值观是一致的。在那封信中,我们明确表示,我们打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们确信了。
原文地址:https://www.blog.google/topics/ai/ai-principles/