全站搜索
内容详情
文章正文
有人模仿你的脸 还有人模仿你全身?

有人模仿你的脸 还有人模仿你全身? 

俄罗斯小说家维克多·佩列文(Victor Pelevin)的赛博朋克小说《Homo Zapiens》中,一位名叫Babylen Tatarsky的诗人在苏联解体,俄罗斯经济面临崩溃之际,被一位在莫斯科的大学老友聘为广告文案撰稿人。
 
  Tatarsky凭借着巧妙的文字天赋一路水涨船高,而他也逐渐发现了这样一个事实:时任俄罗斯总统的叶利钦等政要和当时的重大政治事件,实际上都是虚拟仿真的产物。放眼现在,随着日益纯熟的“深度换脸”技术出现,佩列文的想象似乎正在慢慢变为现实。
 
  (数据观注释:【赛博朋克小说】赛博朋克小说属于科幻小说的类型,兴起于上世纪七十年代的美国,这一类故事里有大量对新兴信息技术和生物科技的描写,常常涉及跨国财团垄断高新技术,故事的主角一般会设定成游走在社会主流之外的边缘人,他们活在未来社会的阴暗面,喜欢修改电脑的软硬件配置,崇尚改造身体,拒绝融入主流体制,靠着合法或者非法的技术手段铤而走险,有时不惜与超级大公司对抗。这种高与低并存产生的反差,造成了一种特殊的美学效果,被概括为“高科技、低生活”六个字。)
 
  在“深度换脸”(亦或被研究人员称之为“合成媒体”)的领域内,众人的注意力主要集中在可能对政治现实造成严重破坏的“虚假面孔”上,以及那些刻意模仿人写作风格和声音的深度学习算法。
 
  然而,如今合成媒体技术的另一个分支——“深度换身”正在迅速发展。
 
  2018年8月,加州大学伯克利分校的研究人员发表了一篇题为《人人都在跳舞》的论文和视频,展示了深度学习算法如何将专业舞者的动作转移到业余舞者身上。虽然这一研究成果还有待完善,但已表明机器学习的研究人员正在着手更具挑战的任务——“深度换身”。
 
  同年,德国海德堡大学的比约恩·奥默博士领导的一个研究团队发表了一篇关于教会机器逼真还原人类动作的论文。
 
  今年4月,日本人工智能公司Data Grid开发了一种人工智能技术,可以自动生成不存在的人体全身模型,并证实了它在时尚和服装领域中的实际应用。
 
  显然,“深度换身”的确可以打造部分有趣的商业应用,比如换脸舞蹈应用程序,或者被应用在体育和生物医学研究上,但恶意应用的案例在如今充斥着谣言和假新闻的政治背景下也愈发受到关注。
 
  虽然眼下“深度换身”还不能完全掩人耳目,但就像任何深度学习技术一样,它也终将进步,“深度换身”想要鱼目混珠,只是时间问题。
 
  人体合成
 
  为了实现深度换脸,计算机科学家使用了生成式对抗网络(GAN),它由两个神经网络组成:合成器/生成网络,以及检测器/鉴别网络。这些神经网络在精细的反馈回路中运行,生成真实的合成图像和视频。合成器从数据库创建图像,而检测器则在另一个数据库工作,用以确定合成器制造的图像是否准确可信。
 
  “深度换脸”的首次恶意应用出现在Reddit(一个社交新闻站点)上,当时斯嘉丽·约翰逊等女演员的脸被移植到了色情电影演员的脸上。
 
  Fast.AI公司联合创始人瑞秋·托马斯表示,在目前已存在的“深度换脸”成品中,95%都是想通过“虚假”的不雅素材来进行个人骚扰。托马斯说:“其中一些深度换脸视频并不一定就使用了非常精细复杂的技术。”
 
  然而,这种情况正开始转变。
 
  法里德(新罕布什尔州汉诺威达特茅斯学院计算机科学教授)指出,中国的“深度换脸”应用程序“Zao”就很好地说明了这项技术在不到两年的时间里发展得有多快。
 
  “那些来自Zao的换脸视频看起来真的非常棒,而且这些人造品有很多就跟在电影版本当中呈现的画面一样。”法里德认为,“这无疑是一个进步,要知道想让这款app大规模应用且有数百万人的下载量并不容易。这是‘深度换脸’技术走向成熟的标志。”
 
  “通过深度换脸的图像和视频,我们基本上实现了CGI技术(通用网关接口,是一种重要的互联网技术,可以让一个客户端,从网页浏览器向执行在网络服务器上的程序请求数据。CGI描述了服务器和请求处理程序之间传输数据的一种标准)的大众化。”他进一步表示,“我们把CGI技术从好莱坞的电影公司中带出来,交到了YouTube视频制作者的手中。”
 
  海德堡大学图像处理(HCI)和跨学科科学计算中心(IWR)计算机视觉教授比约恩•奥默领导了一个研究和开发人体合成媒体的团队。与该领域的大多数研究人员一样,该小组的总体目标是理解图像,并教会机器如何认知图像和视频。最终,他希望团队能够更好地了解人类是如何理解图像的。
 
  “我们已经看到了人体合成的化身不仅为游戏行业,还有许多其他领域都创造了营收,”奥默表示,“尤其是对我的团队来说,我们考虑的是完全不同的领域,比如生物医学研究。我们希望更详细地了解人类甚至动物随着时间的推移,在残疾等类似情况下,身体姿态的演进。”
 
  人脸合成与人体合成的过程有着巨大的差异。奥默表示,当前人们已经对人脸合成进行了更多的研究,这其中有几个原因。
 
  首先,任何数码相机或智能手机都有内置的面部检测技术,这种技术可以用于检测像微笑这样的任务,也可以用来识别观众的目视对象。这样的应用程序能够在产生营收的同时带动更多研究。但正如奥默所说,它们也导致了“大量的数据集合、数据整理和人脸图像获取,而这些都是建立深度学习研究的基础。”
 
  其次,对奥默来说更有趣的是,虽然每个人的脸看起来都不一样,但当把脸和整个身体放在一起相比时,变化其实并不大。“这就是为什么我说面部研究已经到了一定阶段,与整个人体相比,它创造了非常好的结果,因为人体的可变性要大得多,处理起来更加复杂,如果你朝着这个方向前进,还需要学习更多”,奥默说。
 
  奥默也不知道人体合成何时才能够达到他和研究人员想要的标准。然而,纵观那些不怀好意的深度换脸日益成熟,奥默指出,如果没有通过深度学习计算机视觉智能、人工智能或其他技术制造的伪造品来一窥究竟,人类可能早就上当了。
 
  “但是,如果你想让它在更大的社会层面上被接受,那还需要几年的时间,”奥默说,“深度换身”和其他深度造假将变得更加低廉和更普遍。“研究界本身已经朝着一个好的方向发展,这一点得到了许多研究团体的高度赞赏,且这些团体对我们能够更加方便地获取算法这一进程的稳定发展发挥了很大的作用,比如github等。所以,你可以从一些论文上下载最新的代码,然后在不太了解隐藏内容的情况下,直接应用它。”
 
  感到“力不从心”
 
  不是每个人都能创造出“轰动一时”的深度换脸。然而,奥默认为,随着时间的推移,金钱将不再成为获取计算资源方面的阻碍,软件的适用性也将变得容易得多。法里德说,有了“深度换身”,不怀好意的人就可以利用深度换脸技术中的典型静止图像直接在录像中开口说话,让“目标对象”为所欲为。
 
  VRT电台(佛兰德广播公司)的调查记者兼驻外记者汤姆范德韦赫担心,记者、还有人权活动人士和持不同政见者们,都有可能被“深度换身”武器化。
 
  2016年大选期间假新闻的激增,以及2017年“深度换脸”的兴起,激发了范德韦赫对合成媒体的研究。2018年夏天,他在斯坦福大学开始了一项旨在对抗恶意使用“深度换脸”的方法研究。
 
  “受威胁最大的不是大人物、政客和名人,”范德韦赫表示,“只有普通人——像你、我、女记者,以及那些可能成为或已经成为深度换脸受害者的边缘群体。”
 
  两周前,荷兰新闻主播迪翁·斯塔克斯发现自己的脸被“深度换脸”技术映射到了一名色情女演员的身上,该视频还被上传到PornHub网站(全球最大的色情视频分享类网站之一)并在互联网上广泛传播。尽管PornHub很快就删除了这段视频,但范德韦赫表示,她的声誉已经受到了损害。
 
  为了更好地想象“深度换身”是如何工作的,范德韦赫提到了2018年CNN首席白宫记者吉姆·阿科斯塔的镜头。在阴谋论网站Infowars,编辑保罗约瑟夫沃森上传了一段视频:阿科斯塔似乎咄咄逼人地推着一名试图拿他麦克风的白宫工作人员。
 
  这与C-SPAN(美国一家提供公众服务的非营利性的媒体公司)播出的原始片段有明显不同。Infowars的编辑声称他并没有篡改视频,并将所有差异都归因于“视频压缩”。
 
  但是,正如《独立报》对视频进行的时间轴编辑分析显示,沃森的视频的确缺少了原视频的其中几帧。“深度换身”就像编辑视频时对帧数进行改动一样,可以改变事件的真实性。
 
  成立于2018年的Deeptrace Labs是一家网络安全公司,正在开发基于计算机视觉和深度学习的工具,以分析和理解视频,尤其是那些可以被任何人工智能操纵或合成的视频。
 
  该公司创始人乔治•帕特里尼曾在阿姆斯特丹大学德尔塔实验室从事深度学习的博士后研究。他表示,几年前自己开始研究技术如何预防或防范未来合成媒体的滥用。
 
  帕特里尼认为,由人体合成、人脸合成和音频合成组成的恶意深度造假,将很快被用来攻击记者和政客。
 

脚注信息
版权所有 Copyright(C)2013-2020 萧山监控安装-萧山弱电-会议音响-WIFI覆盖-脉冲电网-车牌识别道闸-杭州萧盾智能工程有限公司