智库报告
位置: 首页  >  智库报告  >  【报告】布鲁金斯:自动检测失败时如何打击深度伪造
【报告】布鲁金斯:自动检测失败时如何打击深度伪造
2019-12-02 13:13:00 作者: 赛博研究院 
关键词:深度伪造 


布鲁金斯学会近期发布报告《检测失败时打击深度伪造》(Fighting Deepfakes When Detection Fails)。报告指出deepfake(深度伪造)问题在将来可能变得越来越严重,到目前为止,大多数正在进行的研究和应对措施都集中于针对deepfake的自动检测,这将在未来几年内发挥作用。但是,由于产生伪造数字内容的技术有了很大的改进,在不久的将来,自动检测deepfake可能变得不可能。除了短期内支持发展deepfake检测技术并进行负责任的推广外,决策者还应该投资于发现和开发长期解决方案,采取以下行动:


●通过美国防高级研究计划局(DARPA)的MediFor计划继续提供资金,支持正在进行的deepfake检测工作,并增加新的拨款支持各项检测工作之间的协作,培训新闻工作者和事实核查人员使用这些工具。

●为开发新工具(例如反向视频搜索或基于区块链的验证系统)创建额外的资金奖励流,在面对无法检测的deepfake时,这些新工具可能仍能发挥作用。

●鼓励大型社交媒体发布数据集,供社会科学研究人员研究和探索针对病毒式错误信息和虚假信息活动的解决方案。


一、deepfake的三重影响


deepfake的发展并非一个分水岭,经修改的图像、音频和视频已经在互联网上普及了很长时间,但是它将极大地推动人们对数字内容信念的持续瓦解。许多deepfake专用技术是免费提供的,这意味着创建令人信服的虚假内容比以往任何时候都更加容易,并且在可预见的将来会变得更容易。业余爱好者和具有影响力的运动中上传的大量deepfake内容将在互联网上传播,进一步掩盖数字世界真实性。这种效果具有三重性:


● 虚假信息:人们更容易对图像、音频和视频所呈现的虚假信息产生内在反应,这使此类经修改的媒体比纯文本的虚假信息传播得更快。此外,已有观点提出图像和视频会触发曼德拉效应,创造从未发生过的记忆。

●用尽批判性思维:个人将需要更努力来确定信息是否真实,尤其是当信息不是来自受信任的行为主体。不确定内容是否准确可能还会阻止个人共享准确的内容,从而减少准确信息的分发。

●说谎者红利:存在完全合成的内容为行为主体提供了一种途径,使其可以通过声称原始资料是伪造的来规避基于录音和录像的不当指控。


二、针对deepfake的自动检测技术


1、局限性

目前旨在对抗deepfake影响的大多数研究都集中在对其的自动检测上:使用算法来识别特定图像、音频剪辑或视频是否较之原始文件进行了实质性修改。一系列论文指出了虚假的迹象,包括不自然的眨眼模式,面部特征失真,视频中图像之间的不一致(尤其是照明情况下),主体的言语和嘴巴动作之间不一致,检测技术甚至学会注意世界领导人的生物特征识别模式是否缺失。然而,这些检测方法可能都是短暂的。以检测眨眼作为例子,在研究人员指出该缺陷后仅几个月的时间,新的deepfake技术就可以纠正这种特殊缺陷。


最近,人们将deepfake检测与网络安全进行比较,在网络安全中已经长期存在猫捉老鼠游戏——不断提高的安全性被不断创新的网络攻击所打击。但这种类比过于乐观。deepfake可以做到完美:可以实现与真实内容完全无法区别。当然,这种质量的视频将受到限制,例如需避开胡须,压缩视频数据,仅使用面对单个人的单个摄像头。但是对于最好的deepfake而言,这将是一个简单的猫捉猫游戏,自动检测则无能为力。


2、实践措施

尽管在未来几年一些deepfake将达到超现实主义,但许多深度伪造品仍是业余的,可以使用最佳检测方法轻松检测到。deepfake检测将是社交媒体公司在2020年减少虚假信息的可行方法。近期,有关deepfake的活动十分活跃:Google发布了包含真实和deepfake视频的新数据集;Facebook、微软、亚马逊和人工智能合作伙伴关系联盟正在创建新的deepfake视频数据集,展开相关竞赛以开发更好的检测方法。尽管意识到基于检测的解决方案具有短期性质,但主要的内容分发技术公司仍继续在deepfake检测算法上进行大量投资。在联邦政府中,DARPA的媒体取证计划(Media Forensics)正在提供拨款,以资助上述一些deepfake研究,正如在众议院通过的国防重新授权法案所建议的那样,有必要扩大相关资金。同样,对于IARPA为开发新的检测工具而开展的竞赛,当前在众议院通过的《情报授权法》也投入了500万美元。


三、不止于自动检测技术


由于产生伪造数字内容的技术不断改进,因此在不久的将来,自动检测deepfake可能变得不容易,对此报告提出以下应对思路:



1、投资新技术

即使与真实视频没有区别,也可以采取其他措施来减少deepfake的影响。1)反向图像搜索使记者、事实核查人员和普通网民能够发掘伪造品的原始照片。这种类型的工具允许用户上传图像,然后使用计算机视觉发现在线的相似照片,显示出照片经过更改或是使用于原始出处之外的其他地方。2)少数公司正在出售基于区块链的验证——内容可以在创建时被记录在不可更改的分类帐中。如果出现差异,这对于需要证明内容原创性的行为主体可能很有价值。虽然新闻通讯社和其他组织可能会采用这些系统,但对于普通公民创建的绝大多数内容而言可能影响有限。


2、支持社会科学

Twitter已经发布相关数据,其中包含来自国家支持型宣传活动的数百万条推文,这些信息被用来了解各种类型的在线巨魔。Facebook正在通过其Social Science One计划发布大量与选举相关的数据。为了帮助发现新的解决方案来对抗虚假信息传播,政策制定者应鼓励科技公司通过负责任并且保护隐私的平台将其数据广泛传播给社会科学家。


3、改革《通信规范法》和禁止深度伪造

虽然法律补救措施影响有限,但也应发挥作用。越来越多的学者呼吁对《通信规范法》第230条进行改革。这将使公民更容易让技术平台对传播用户上传的有害或诽谤内容负责。个人将可以请愿科技公司从这些网站中删除相似的深度伪造内容。加利福尼亚州禁止在选举后60天内创建和传播关于政客的深度伪造视频。虽然该立法的可执行性、有效性以及合法性尚待观察,但是这一举措值得关注。目前已有其他相关法律(例如版权、公开权和侵权法),但是大多数法律都依赖于追究deepfake创作者的责任,由于网络的匿名性和法律管辖权问题,执法具有难度。


编译 | 贺佳瀛

原文链接:

https://www.brookings.edu/research/fighting-deepfakes-when-detection-fails/


本文由赛博研究院出品,转载请注明:本文来源于赛博研究院官网。

更多精彩内容请关注“赛博研究院”公众号。


网站二维码底图.jpg