365每一天论坛Deepfake是祸害,还是造福?能回答这个问题的,还是使用这项技术的人。
设想有一天,当你打开手机,收到一段视频,你的脸被安在了电影的主角身上……
这不是天方夜谭,这是印度记者拉娜·阿尤布的真实遭遇。由于得罪了当地的恶势力,有人便用Deepfake技术合成视频来诋毁她。
Deepfake是一种利用机器学习和人工智能,操纵或者伪造具有极高欺骗性的视觉和音频内容的技术。自从它诞生以来,最臭名昭著的应用就是电影“换头”。
除了作恶,Deepfake也有“善”的一面,比如在电影拍摄中的应用,或者零售业提供的在线试穿功能,以及大量的娱乐APP能够让你简单地做出搞笑的视频片段。
从当前Deepfake技术的应用看,利用它作恶,远比造福社会容易得多。所以,Deepfake是如何做到“以假乱真”的?什么技术能够制衡Deepfake?“深度造假”和“反深度造假”,哪一方能最终获胜?在获取真相越来越难、欺骗越来越容易的时代,普通人该如何面对?
刘都统:可能有的人没有听过Deepfake这个概念。Deepfake是一个合成词,前半部分“Deep”代表深度,“fake”就是造假,连起来就是深度造假的意思。为什么这个话题值得聊,因为这个技术引发了一系列的问题,引发了全球关注。其中还包括很多恶性事件。
贺哥:没错。比较引人注目的是用这项技术制造“换脸”的“小电影”。把片女主角的脸换成当红女明星,比如漫威电影中黑寡妇扮演者斯嘉丽就是受害者。她本人对这种事又气愤又无奈,自己的脸被贴到了别人身上,无可奈何。
刘都统:早在2018年的时候,印度那边有一个叫拉娜·阿尤布的女记者,因为要为一个被奸杀的8岁女孩伸张正义,得罪了当地的人民党。该党领导人支持罪犯,声称由于他是印度教徒,所以被诬陷。这位女记者显然不同意这种看法。后来女记者遭遇了一系列非常恶劣的事情,首先是很多人发图片和推文来攻击她,然后有一天中午,她正在和朋友喝咖啡,收到一段视频,打开一看,是一段视频,主角就是自己。
刘都统:这是非常典型的用Deepfake技术进行换脸操作,然后对目标进行攻击诽谤。关键在社会上对一个女性发动这种攻击,影响非常深远。后来持续地有人在脸书上骚扰她,甚至打电话骚扰她。
贺哥:还有一种基于Deepfake的应用,就是对身边熟悉的人拍照,然后可以用Deepfake技术把目标的衣服脱光,看她(他)的裸照。还有一项调查显示,虽然很多人的性幻想对象是明星,但是也有相当多的人,他们对身边女生的兴趣更大,经常用她们做假想,这种现象比例高达63%。
刘都统:所以Deepfake到底上是怎么变成一个作恶工具的?这得从它诞生说起。其实,Deepfake就是伴随着在电影中的应用诞生的。早在2017年,在国外有一个非常有名的科技类论坛叫Reddit,当时有一个叫Deepfake的用户,他就在论坛上共享开源代码来转换别人的脸部,用这种技术替换电影女主角。后来就把这种技术叫成了Deepfake。那么,这个技术到底怎么完成换脸的?
贺哥:核心技术是对抗生成网络,英文也叫GAN,这项技术在2014年被发明出来。从原理上说,它就是基于深度学习的两套系统,两套算法。一套用来生成假视频,另一套叫对抗模型,不断检测这些生成的假视频。直到对抗模型无法检测出第一套模型在造假了,视频也就合成了。这很像金庸小说中的顶级武学——左右互搏之术。自己和自己打,不断提高造假的质量,这是一种无监督学习,不需要人的参与,整个过程就是人工智能的自我磨炼。
刘都统:所以这个系统先进的地方就在于一边造假,一边检测。自己既是小偷又是警察,通过警察不断磨炼小偷的技术,然后把技术磨炼的非常高超。
贺哥:是的。这种人工智能的训练过程还需要大量的数据集。也就是说,能用来训练的图片、视频越多,训练出的AI造假能力越强。
刘都统:这也就从某种程度上解释了,为什么一些公众人物更容易被换脸,因为他们的出镜机会太多了。
刘都统:这很容易让人把Deepfake和人脸识别联系到一起。现在非常令人担心的是,人脸识别的数据丢失,或者被盗用,会不会成了别人做Deepfake、换脸的素材?
贺哥:非常有可能。现在一些Deepfake技术的算法,就是基于公共数据库来训练,也就是公共的人脸数据。
刘都统:Deepfake除了在电影上有应用,还有其他不好的影响。比如在2019年,有人用Deepfake技术合成音频诈骗。当时英国一家能源公司的首席执行官接到了母公司CEO的电话,让他给一家匈牙利银行账户汇款22万欧元,他被骗了。电话里的CEO,其实是骗子用Deepfake模拟的声音。
刘都统:对。一些安全专家建议,如果你的企业非常担心被Deepfake诈骗,那么在开电话会议的时候可以对暗号。比如我们看的历史剧,像是《三国演义》里边,“今晚的口令是什么?”回答说,“鸡肋!”这就知道是不是自己人了。
贺哥:咱们讲到的这些案例,想做到还是有一定技术门槛的。制造假视频的人,自己要懂一些技术,也要有强大的硬件去运行人工智能程序。但是现在要特别注意的是什么?现在用Deepfake的门槛越来越低,很多开放的论坛或者开发出来付费的软件,让普通人也能用。
刘都统:这可能会造成谎言大流行。比如生成我和某个明星的合影去炫耀。所以现在就有一个问题。俗话说“道高一尺,魔高一丈”,Deepfake产生了这么多不好的影响,有没有什么技术能反制它?
贺哥:自从Deepfake诞生之后,就自然而然有人去研究反向破解。造假和打假,总是相伴相生的。本质上说,还是要用AI对抗AI,因为人眼是无法分辨Deepfake造假的。
刘都统:关于AI对抗Deepfake这个事情,首先要说一个结论:打假永远比造假难。
贺哥:打假会滞后。只有造假的东西出来了,打假才能针对性地开发技术。与此同时,Deepfake本身的技术也在不断提高,一旦你用新技术去识别它,它就把你的技术放到自己学习系统里,学会规避它。
刘都统:没错。这里非常重要的一点就是,刚才提到了Deepfake的机理,相当于一个既是小偷又是警察的人,它能自己训练自己。所以在Reddit论坛上,有一个关于侦测Deepfake的帖子,下边有一句被置顶的评论,原话是这么说的:任何一种反Deepfake的技术,都会让Deepfake越来越强大。
贺哥:用来反Deepfake的技术叫Deepfake检测器。现在一些研究者用的方法是检测视频中的人的生物学特征。比方一项研究,人心跳的时候,肤色会有明暗的变化,这种变化肉眼看不出来,但是高分辨率的机器可以分析出来。所以这种技术就是分析视频中,人脸上不同部位的明暗变化是不是同步,如果是真实的人,则是一致的,合成的人像不一致。就当前Deepfake的技术,合成视频时,还无法渲染到如此精细的程度。
贺哥:这个方法识别率很高。相关的科学家在全网的一些大型数据库测试,90%的视频可以分辨出真假。当然,Deepfake造假者也可以通过阅读论文掌握其原理,然后让Deepfake学会这个技术,改进造假手段。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
《狂飙》中出现一堆AD钙奶镜头,娃哈哈董事长回应:没广告植入但我有意见…
“你再给我顶一句,我立马让你走!” 疑似侨银股份人士怒斥员工,公司回应:正在核查
今晚,爆了!分析师、基金经理疯狂涌入!“将赴大陆”!热搜也爆了:张兰家族信托被击穿!
俞敏洪回应“东方甄选养殖虾当野生虾卖”:我们承认错误,因经验不足,不是故意为之
华为史诗级软件替代:MetaERP直面西方厂商垄断,重写设计工具打破软件断供
|