content/zh-cn/images/repository/isc/2020/how-to-protect-yourself-against-deepfake.jpg

新近兴起的 Deepfake 世界

Deepfake 视频中的“Deepfake”是一个合成词 -“deep”来自“deep learning”(深度学习)“fake”当然就是原意,也就是“假冒”。深度学习是一种先进的人工智能方法,它使用多层机器学习算法,循序渐进地从原始输入中提取高级特征。它能够从非结构化数据(例如人脸)中学习。例如,人工智能可以收集有关您身体移动的数据。

然后对该数据进行处理,以便通过 GAN(生成式对抗网络)创建 Deepfake 视频。这是另一种专用机器学习系统。它采用两个神经网络,以相互竞争的方式学习训练集(例如人脸照片)的特征,然后生成具有相同特征的新数据(新的仿冒“照片”)。

由于这种网络会不断根据训练集测试其创建的图像,因此假冒的图像会变得越来越令人信服。这使 Deepfake 逐渐成为一个极大的威胁。此外,GAN 还可以伪造照片和视频之外的其他数据。实际上,相同的 Deepfake 机器学习和合成技术可以用来伪造声音。

Deepfake 示例

形成热点的 Deepfake 示例并不罕见。Deepfake 的一个例子是演员 Jordan Peele 发布的视频,在视频中,他将巴拉克·奥巴马的真实镜头与自己对奥巴马的印象相结合,向世人发出了有关 Deepfake 视频的警告。随后,他展示了合并后的视频的两个部分各自的效果。他给出了什么建议?眼见未必为实,需要常怀质疑之心。

一则 Facebook 首席执行官 Mark Zuckerberg 的视频似乎在谈论 Facebook 如何通过盗用用户数据(特别是在 Instagram 上)来“操控未来”。原始视频是他关于美国干扰俄罗斯大选的一次演讲 - 短短 21 秒的演讲就足以合成新视频。不过这段视频中的声音模仿不如 Jordan Peele 模仿的奥巴马,因此露出了马脚。

但是,即使制作不那么精良的伪造视频也会产生巨大影响。Nancy Pelosi 的“醉酒”视频在 YouTube 上获得了数百万的观看。但实际上,这段视频只是通过人为放慢视频播放速度来导致其口齿不清产生的效果。许多女性名人发现,有人为报复自己而将自己的面孔换到了色情影片和图片中。

Deepfake 威胁 - 欺诈和勒索

Deepfake 视频已用于政治目的以及个人打击报复的用途。但也有越来越多的人将其用于影响更为恶劣的勒索和欺诈企图。

一家英国能源公司的首席执行官就因此而被骗取 243,000 美元,犯罪分子通过 Deepfake 技术伪造了其母公司负责人的声音,要求其紧急转移资金。由于假冒的声音非常逼真,以致于这位高管甚至没有想过去核查;这笔资金没有电汇到总部,而是电汇到第三方银行帐户。不过在假冒的“老板”再次要求这位首席执行官转账时,他产生了怀疑。这次,他的心中终于敲响了警钟。但为时已晚,他已经转账的资金已经拿不回来了。

在法国,最近的一次欺诈行为并未使用 Deepfake 技术,不过使用了冒名顶替的做法,诈骗者一丝不苟地模仿了外交大臣 Jean-Yves le Drian 的办公室及其中的家具布置,从多位高管处骗得数百万欧元。据称,诈骗者 Gilbert Chikli 伪装成部长,向富人和公司高管索要赎金,以“释放被扣押在叙利亚的法国人质”。目前,这名诈骗者正在接受审判。

Deepfake 带来的威胁与危险

Deepfake 的作者也有可能威胁称要发布具有破坏性的 Deepfake 视频,以此勒索公司总裁向其支付好处。此外,入侵者还可以轻松合成您的首席信息官的视频通话,哄骗员工交出密码和特权,从而借机进入您的网络,让黑客有机会侵入您的敏感数据库。

Deepfake 色情影片也已经被用来勒索女性记者和新闻工作者,例如曾经曝光过滥用权力恶行的印度记者 Rana Ayyub。随着技术的成本日渐低廉,Deepfake 必将更多地用于勒索和欺诈。

我们如何保护自己免受 Deepfake 的侵害?

人们已经在通过立法着手应对 Deepfake 视频的威胁。例如,在加利福尼亚州,去年通过的两项法案将 Deepfake 的某些方面定为非法。其中,AB-602 法案禁止在未经目标个人同意的情况下,使用人类图像合成技术制作色情作品,而 AB-730 法案则禁止在大选 60 天内擅自篡改政治候选人的图像。

但这些措施够吗?幸运的是,网络安全公司一直在想方设法提供更多更好的检测算法。这些算法能分析视频图像,并发现在“伪造”过程中产生的微小失真。例如,当前的 Deepfake 合成器会对 2D 人脸建模,然后对其进行变形处理,以适合视频中的 3D 视角;注意观察鼻子的方向是关键所在。

Deepfake 视频仍处于您可以自行发现某些迹象的阶段。以下特征可能表明视频属于 Deepfake 视频

  • 不自然的行动
  • 一帧与下一帧之间的照明光线变化
  • 肤色变化
  • 古怪的眨眼或完全不眨眼
  • 嘴唇与言语对应较差
  • 图像中的数字伪影

但是,随着 Deepfakes 技术的不断完善,您能通过自行目测能发现的迹象只会越来越少,需要更多地依赖优秀的网络安全程序。

最先进的防伪技术

如今,有一些新兴技术正在帮助视频制作者为其视频验真。可以使用一种加密算法,在视频中按既定时间间隔插入哈希值;如果视频被篡改,这个哈希值也会发生变化。AI 和区块链技术可以为视频注册防篡改的数字指纹。这种方式与为文档添加水印很相似;不过视频的困难在于,如果要压缩视频以用于不同的编解码器,那么需要设法留下哈希值。

对抗 Deepfake 尝试的另一种方法是使用一种特殊的程序,将经过特殊设计的数字“伪影”插入视频中,以隐藏人脸检测软件所使用的像素模式。这类伪影会降低 Deepfake 算法的速度,并导致其获得低劣的结果,从而降低了成功进行 Deepfake 伪造的机会。

良好的安全规程是最好的防护机制

然而,技术并非防范 Deepfake 视频的唯一方法。良好的基本安全规程在抵御 Deepfake 方面非常有效。

例如,在任何分配资金的流程内内置自动检查机制,这样就能拦截许多 Deepfake 和类似的欺诈行为。您还可以这样做:

  • 确保员工和家人了解 Deepfaking 的工作原理及其带来的挑战。
  • 自行探究并向他人科普如何发现 Deepfake。
  • 确保您具有媒体方面的素养,并使用高质量的新闻来源。
  • 采用良好的基本协议 -“信任但验证”。对语音邮件和视频保持质疑态度不能保证您永远不会被骗,但确实可以帮您避开许多陷阱。

切记,如果黑客开始尝试使用 Deepfake 入侵家庭和企业网络,那么在最大程度地降低风险方面,基本的网络安全最佳实践将发挥重要作用:

  • 定期备份可保护您的数据免受勒索软件的侵害,也让您可以恢复损坏的数据。
  • 为不同的帐户使用不同的强密码,这样,即便有一个网络或服务遭遇入侵,其他网络或服务也可能安全无忧。如果有人侵入您的 Facebook 帐户,您必定不希望他们也能够侵入您的其他帐户。
  • 使用优秀的安全产品套件(例如 Kaspersky 的 Total Security)来保护家庭网络、笔记本电脑和智能手机免受网络威胁的侵扰。该套件包提供反病毒软件、防止您的 Wi-Fi 连接遭遇黑客入侵的 VPN,以及对网络摄像头的保护。

Deepfake 的未来会怎样?

Deepfake 技术一直在发展演进。两年前,仅仅通过伪造视频中的人物笨拙的动作和似乎从不眨眼这一事实,就可以轻松判断出它们属于 Deepfake 视频。然而,最新一代的伪造视频已经取得了长足发展,做出了相应的调整。

目前,网络上大约有超过 15,000 个 Deepfake 视频。有些只是为了娱乐,而另一些则试图操控您的观点。如今,制作新的 Deepfake 只需一两天时间,因此这类视频的数量很可能会迅速增加。

相关链接

涉及到名人的重大入侵事件及其对您的影响

网络摄像头入侵:您的网络摄像头会被他人用来窥探您的生活吗?

Deepfake 技术的兴起对于网络安全的未来意味着什么?

假冒视频和 Deep Fake - 用户该如何保护自己?

过去的黑客使用 Photoshop“换脸”的方法,将政客的脸安到色情片明星的身上,而如今的黑客所采用的技术已经远远超越了这种方式。如今的 Deepfake 视频甚至可以运用类似于好莱坞电影中那种技术,让受害者“亲口”说出某些话语,用这种方式来损害受害者的声誉,甚至勒索他们。
Kaspersky Logo