wesay 2019-06-14
人工智能工具 Deepfake 可以生成逼真图像和视频,现在竟有人拿它来进行间谍活动了。美国民主党众议员 Adam Schiff 在本周四的众议院情报委员会听证会上发出警告称,由 Deepfake 生成的视频可能会对 2020 年美国大选产生灾难性影响。
对此,Schiff 正在挑战美国《通信规范法》(Communications Decency Act)第 230 条——这可能是当今互联网世界最重要的一条法律:互联网服务不必为其用户的行为负责(正文为:No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. 交互式计算机服务的提供者或使用者,就非出于己的信息内容,不应被视为内容的出版人及发表人)。
Schiff 要求国会考虑修改法律,以规定对合理审核做法的豁免权。这一主张得到了马里兰法学院教授 Danielle Keats Citron 的回应。他建议国会强制社交网络平台「免于」230 条的规定:「目前对第 230 条的解释,使得社交平台没有动力去解决具有破坏性的危险性内容。」
通信规范法 230 条,可能会因为 Deepfake 而改变。与此同时也有议员提出法案建议所有 AI 生成的视频必须打上标记。人工智能为何让美国议员如此恐惧,这件事还要从一个领英页面说起。
「不存在」的政治新星
造假也是门技术活。有人用 AI 生成的假视频娱乐大众,也有人利用 AI 做假视频打击对手,但是,还有人用 AI 生成的假图像当间谍……
这位名叫 Katie Jones 的女郎似乎已经融入了华盛顿的政治舞台。她看起来 30 岁左右,在顶级智库工作,拥有由一批专家和权威人士组成的关系网。
她与一名副助理国务卿、一名参议员的高级助理以及经济学家 Paul Winfree 都有联系,后者有望加入美联储。
光看履历,你就会觉得这女人很厉害了。长得好看能力还强,大概就是传说中的「明明可以靠颜值,非得靠实力吃饭」的那种?
然而,上面介绍的这位女郎其实并不存在,美联社已对此作出确认。这只是潜伏在领英网站上的大量虚假个人资料之一。
查看过 Jones 领英活动的专家表示,这是这家专业社交网站上典型的间谍活动。作为一个全球范围的名片展示平台,领英对间谍有着强烈的吸引力。
「这很像某种国家级别的操作,」丹麦某智库的一位项目负责人表示,同时 ta 也是几年前领英上一场间谍活动的目标之一。
美国国家反间谍和安全中心主任 William Evanina 表示,外国间谍经常使用伪造的社交媒体资料来锁定美国目标。
与 Facebook 专注于朋友-家人的关系网不同,领英主要面向求职者和猎头,其用户会经常投递简历、建立庞大的关系网并向陌生人传送文件。
这种将所有人连接起来的方法有助于填补该网站上的数百万个职位空缺,但也为间谍提供了丰富的狩猎场。这也是西方情报机构所担忧的。
在过去几年里,英国、法国和德国都发出了警告,详细说明了外国间谍如何通过领英与数千人取得联系。
领英在一份声明中表示,该公司经常对虚假账户采取行动,今年头三个月就删除了数千个虚假账户。该网站还表示,「我们建议您与认识和信任的人联系。」
Katie Jones 的这份资料规模并不大,只有 52 个联系人。但这些联系足够有影响力,可以向那些接受 Jones 邀请的人灌输文件的可信度。
美联社联系的几位专家表示,Jones 资料里的照片似乎是用计算机程序生成的。「我坚信那是一张假脸」,一位德国艺术家 Mario Klingemann 表示,他接触人工生成的图像已有数年时间,可谓阅「片」无数。「它有所有假脸的特征」,Mario Klingemann 和其他专家表示,这张照片似乎是用 GAN生成的,GAN 可以生成非常逼真的肖像。
南加州大学创新技术研究所图形视觉实验室主任 Hao Li 列举了一个数字图表,他表示,Jones 的照片肯定是由计算机程序生成的,证据包括眼睛的不一致,头发周围飘忽的光芒以及左脸颊上的污渍。
「我敢打赌,这是典型的 GAN 生成图像」,他表示。
和之前利用 deepfake 技术将某种动作片中的主人公 P 成自己的梦中情人相比,这种技术利用已经上升到了国家安全层面。管理层已无法坐视不理。
现有的「造假」技术到底发展到了何种程度?
现有的造假技术,包括图像生成、语音合成、视频合成等,都取得了很好的成果。
图像生成
拿图像生成来说,最著名的 GAN,自发布以来,便一直在发展。
去年 9 月,BigGAN横空出世,其生成图像质量之高,让众多学者惊呼。也因此,该模型被大家称为「史上最强 GAN 图像生成器」。今年 2 月,BigGAN 一作再次发力,改进之后的模型叫 BigGAN-deep。相比之前的模型,该模型的网络深度是原来的 4 倍、模型参数仅为原来的一半,但效果却更佳!
这么多年,GAN 一直是图像生成界的杠把子,无人超越。还有网友利用 GAN 做了一个网站,叫「此人不存在(thispersondoesnotexist)」。
这个网站小编已经玩过好多次了,虽然有时候生成的图像古里古怪,但大部分时候,它生成的图像都让人感到惊艳。
来自 thispersondoesnotexist 网站,效果还是很惊艳。
但,GAN 真的是图像生成的不二选择吗?有人不信。
于是最近,DeepMind 提出 VQ-VAE,这个模型生成了可以媲美当前最佳 GAN 模型(BigGAN-deep)的图像。甚至,它在图像多样性上还要优于 BigGAN-deep。你以为这就完了?太天真了。
有人研究生成图像,还有人研究让图像「开口说话」。这些人简直是魔鬼……
来自三星莫斯科 AI 中心和 Skolkovo 科学技术研究所的研究人员创建了一个模型,利用这个模型可以从一张图像中生成人物头像的动图,而且是开口说话的那种动图。
想象一下,家里挂着的肖像照突然开口说话并做出了表情……那画面太美我不敢想~私以为,这种技术用来拍恐怖片的话,应该效果不错。
语音合成
去年年中,谷歌科学家 Ye Jia 等人在 arXiv 上发布了一篇用迁移学习完成语音合成的论文。
这项全新的语音合成技术能够通任意一段参考音频中提取出说话者的声纹信息,并生成与其相似度极高的合成语音,参考音频与最终合成的语音甚至不必是同一种语言。
除了利用参考音频作为输入外,该技术还能随机生成虚拟的声线,以「不存在的说话者」的声音进行语音合成。
也就是说,这项技术除了能够模仿任何人的声音,还能「无中生有」,随机生成「不存在的声音」。
某种程度上来说,这和 thispersondoesnotexist 给人的感觉有点像。只不过生成的一个是语音,一个是图像罢了。
与这种语音到语音的合成技术不同,加拿大创业公司 Dessa 最近开发的语音合成系统RealTalk实现的是文本到语音的合成。
这个系统可以仅基于文本输入生成完美逼近真人的声音。小编仔细听过了它给出的样本,除了语速上的差异,生成效果几乎和真人一毛一样。
出于伦理、社会影响等方面的考虑,Dessa 并未公布该项目的研究细节、模型和数据集。所以,好奇的同学,现在也只能眼馋了。
deepfakes
以上的图像生成和语音,单独拎出来都足以以假乱真,遑论加上 Deepfakes 呢?
作为去年年初最「黑科技」的应用之一,Deepfakes 可以修改视频,将视频中 A 的脸直接移植到 B 的脸上,效果几乎完美。
不过,网上流传的一些用 deepfakes 制作的假视频几乎利用的都是名人,也因此容易露出诸多破绽。
不妨大胆想一想,如果利用的是 GAN 生成的假脸,那效果会不会更好?
AI 造假技术的影响
deepfake 等 AI 造假技术生成的图像、视频逼真,而且技术门槛低,普通人也能上手。但这些技术的出现也在给越来越多的人造成困扰,其中不乏娱乐圈、政坛名人。
好莱坞女星
斯嘉丽·约翰逊
就曾多次卷入色情伪造视频。那些视频传播非常广,而且难以删除。
斯嘉丽·约翰逊表示:「很明显这对我的影响没有那么大,因为人们知道色情视频里的人并不是我。对我来说这种努力是无用、没有结果的,但是对于那些因此可能丢掉工作的人来说就不同了。」
斯嘉丽还表示,这项技术对每个人都有威胁,「人们认为密码可以保护他们,只有公众人物才有被黑的风险。殊不知,对黑客来说,攻击谁并没有太大差别,这只取决于 ta 想不想攻击你。」
当然,这种技术的威胁没有止步于个人层面。
最近,众议院议长南希·佩洛西(Nancy Pelosi)的一段视频在社交媒体上流传开来,视频中佩洛西形似醉酒、声音奇怪,视频速度放慢了 75%。
这段视频在 Facebook 上获得了超过 250 万的点击量。此前,特朗普分享了这段视频,试图取笑佩洛西的演讲模式以及她是否适合担任总统。
共和党人和民主党人现在担心,这些被操纵的视频将成为针对美国和其他西方民主国家的虚假信息斗争的最新武器。
众议院情报委员会在一份声明中表示:「deepfakes 引发了有关国家安全和民主治理的深刻问题,个人和选民在评估他们在屏幕上所见内容的真实性时,无法再相信自己的眼睛或耳朵。」
该委员会主席、众议员 Adam Schiff 在开幕致辞中说,篡改视频的传播为 2020 年总统大选带来了一种「噩梦般的」场景,让议员、新闻媒体和公众「难以分辨什么是真实的,什么是虚假的」。
该视频在 twitter、Facebook、YouTube 等视频平台上广泛传播,Nancy Pelosi 对视频篡改者和社交平台进行了谴责,但 Facebook 却拒绝下架该视频,以至于 Nancy Pelosi 谴责说,「该行为无异于这家公司的领导人曾支持俄罗斯在 2016 年对美国总统大选进行干扰的行为。」
对视频做出简单的修改就可以对一个国家造成政治影响,那么利用 Deepfake 等技术生成的假视频、声音造成的影响更是难以估量。因此,政府也在积极寻求应对措施。
如何应对这些难以识别的造假技术?
DARPA(美国国防高级研究计划局)正在资助寻求检测假视频方法的研究者,这也是立法者们讨论的话题。去年,共和党参议员 Ben Sasse 曾提出一项法案,禁止制造和销售 deepfakes 假视频。
参议院情报委员会副主席 Mark Warner 在一份白皮书中写道,视频操纵技术将引发前所未有的虚假或诽谤性内容浪潮。
共和党参议员 Marco Rubio 在美国 Heritage Foundation 大会的一次活动上发表讲话,概述了他对在即将到来的选举中可能使用 deepfake 的担忧。
昨天,美国众议院情报委员会就 deepfakes 等 AI 造假技术的泛滥召开了听证会,来自马里兰大学的法学教授 Danielle Citron 认为:目前,我们还没有绝对的措施来应对 deepfakes,但法律、市场和社会责任的结合是解决问题的必要条件。
与此对应的是,众议院新提出的一项法案《DEEPFAKES Accountability Act》。该法案由纽约州众议员 Yvette Clarke 提出,法案全称为「the Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act」,缩写为 DEEPFAKES。
这项法案要求任何创建合成媒体文件的人,必须用「不可删除的数字水印以及文本描述」来说明该媒体文件是篡改或生成的,否则将属于犯罪行为。
对于 deepfakes 等技术对大选可能造成的不利影响,专家建议政府与社交媒体合作,「向业界施压,共同打击极端主义、虚假信息……」,对此类问题作出快速响应。任何反应上的延迟都会助长此类阴谋的发酵。
在国内,deepfake 等技术的使用可能侵犯肖像权、危害社会公共利益乃至国家安全,因此也已经引起监管部门的关注。
民法典人格权编(草案)二审稿作出规定:任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。其他人格权的许可使用和自然人声音的保护,参照适用有关规定。」
如何识别假图像
尽管利用 GAN 等技术生成的人脸非常逼真,但深度学习大牛、图灵奖得主 Yann Lecun 表示,这些假脸还是可以分辨的。
生成图像存在一些共同的缺陷,如水斑;背景语音信息不连贯;眼镜、饰物等不对称;头发光晕;荧光渗透等。
这些缺陷因图像而异,并非每张图像都有,但是可以作为判断生成图像的辅助证据。
参考内容:
https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d
https://www.vice.com/en_us/article/qv7zmx/deepfakes-nancy-pelosi-fake-video-trump-tweet
https://www.cbsnews.com/news/house-holds-hearing-on-deepfakes-and-artificial-intelligence-amid-national-security-concerns-live-stream/
https://techcrunch.com/2019/06/13/deepfakes-accountability-act-would-impose-unenforceable-rules-but-its-a-start/