不久前,人工智能深度伪造还未进入组织的风险雷达,但到 2024 年,它们的排名上升了。由于人工智能深度伪造可能会通过虚假信息造成股价暴跌、品牌信任度下降等各种后果,因此它们很可能会在一段时间内成为一种风险。
网络安全公司 Tenable 的首席安全官兼研究主管 Robert Huber 在接受 TechRepublic 采访时表示,人工智能深度伪造可能被一系列恶意行为者使用。虽然检测工具仍在不断完善,但亚太地区企业可以通过将深度伪造纳入风险评估并更好地保护自己的内容来做好准备。
最终,当国际规范围绕人工智能趋于一致时,组织可能会获得更多保护。Huber 呼吁大型科技平台参与者加强对人工智能生成内容的识别,而不是将其留给非专家个人用户。
人工智能深度伪造对社会和企业的风险不断上升
人工智能产生的错误信息和虚假信息的风险正在成为一种全球风险。2024 年,随着人工智能浪潮的兴起,2023 年,该风险类别整体上是第二大风险世界经济论坛《2024年全球风险报告》(图A)。
图A

超过一半(53%)的受访者来自商界、学术界、政府和民间社会,他们认为人工智能生成的错误信息和虚假信息(包括深度伪造)是一种风险。错误信息还被称为未来两年最大的风险因素(图B)。
图B

企业还没有这么快考虑人工智能深度伪造的风险。怡安全球风险管理调查例如,尽管企业担心人工智能可能会造成业务中断或品牌和声誉受损,但并没有提及这一点。
Huber 表示,人工智能深度伪造的风险仍然存在,而且随着人工智能的快速变化,这种风险也在不断变化。不过,他表示,亚太地区的组织应该考虑到这一风险。“这不一定是网络风险。这是企业风险,”他说。
AI 深度伪造为几乎所有威胁行为者提供了新工具
预计人工智能深度伪造将成为任何对手或威胁行为者实现其目标的另一种选择。Huber 表示,这可能包括具有地缘政治目标的民族国家和具有理想主义议程的活动团体,其动机包括经济利益和影响力。
“你将在这里遇到各种各样的人,从民族国家团体到具有环保意识的团体,再到只想通过深度伪造赚钱的黑客。我认为这是任何恶意行为者工具箱中的另一种工具,”Huber 解释道。
怎么看
深度伪造的成本低意味着恶意行为者的进入门槛低
人工智能工具的易用性和生产人工智能材料的低成本意味着恶意行为者利用新工具几乎不会遇到任何阻碍。Huber 表示,与过去不同的一点是,现在威胁行为者可以轻松获得高质量的工具。
“几年前,进入该领域的成本门槛很低,但质量也很差,”Huber 说。“现在门槛仍然很低,但有了生成式人工智能,质量大大提高。因此,对于大多数人来说,在没有额外线索的情况下,自己识别深度伪造作品变得越来越困难。”
人工智能深度伪造会给组织带来哪些风险?
Huber 表示,人工智能深度伪造的风险“如此突出”,以至于它们尚未列入亚太地区组织风险评估议程。然而,微软自己也报道过,他邀请人们问:如果这是一个 deepfake 会怎样?
“无论是虚假信息还是影响,微软都在与世界各地的不同政府和机构竞标大型合同。这说明微软这样的企业值得信赖,或者适用于任何大型科技组织。”
失去企业合同
任何类型的营利性企业都可能受到人工智能深度伪造材料的影响。例如,虚假信息的产生可能会引起世界各地的质疑或合同损失,或者引发社会对组织的担忧或反应,从而损害其前景。
物理安全风险
人工智能深度伪造可能会为业务中断的主要风险增加新的维度。例如,人工智能产生的错误信息可能会引发骚乱,甚至让人产生骚乱的感觉,对个人或业务造成危险,或者只是让人产生危险的感觉。
品牌和声誉影响
。这些风险包括对组织声誉和品牌或员工体验和人力资源的风险。其中一个风险是放大效应,即人工智能深度伪造会被用来传播其他人工智能深度伪造,从而影响更广泛的受众。
财务影响
金融风险包括利用人工智能深度伪造技术操纵股价的能力以及金融欺诈风险。最近,香港一家跨国公司的一名财务员工被骗向犯罪分子支付了 2500 万美元(4000 万澳元),原因是他们使用复杂的人工智能深度伪造骗局冒充公司首席财务官在视频电话会议中。
个人检测不是组织解决深度伪造问题的解决方案
亚太地区组织面临的最大问题是,人工智能深度伪造检测对每个人来说都很难。虽然监管机构和技术平台正在适应人工智能的发展,但识别深度伪造的大部分责任还是落在个人用户身上,而不是中介机构。
这可能会让个人和群体的信念对组织产生影响。在媒体和社交媒体可能充斥着虚假信息的环境中,个人被要求实时判断有关品牌或员工的负面报道是真实的还是深度伪造的。
个人用户没有能力区分事实和虚构
胡贝尔表示,期望人们辨别哪些是人工智能生成的深度伪造,哪些不是,这是“有问题的”。他认为,目前,即使是技术专业人士也很难辨别人工智能深度伪造,而那些没有经验的人在识别人工智能深度伪造方面会遇到困难。
“这就像说,‘我们要培训每个人了解网络安全。’现在,ACSC [澳大利亚网络安全中心] 发布了很多关于网络安全的优秀指导,但除了真正身处网络安全领域的人之外,谁会真正阅读这些指导呢?”他问道。
偏见也是一个因素。“如果你正在观看对你来说很重要的内容,你就会带着偏见;你不太可能关注动作或手势的细微差别,或者图像是否是 3D 的。如果你对内容感兴趣,你就不会使用那些蜘蛛感应来寻找异常。”
什么能帮助组织对抗人工智能深度伪造的风险?
Huber 表示,人工智能深度伪造的兴起可能会导致恶意制作深度伪造作品的人与试图检测和阻止这些作品的人之间展开“猫捉老鼠”的游戏。因此,随着“军备竞赛”引发一场争夺现实的战争,帮助检测人工智能深度伪造作品的工具和能力可能会迅速发生变化。
有一些事情或许可以帮助组织正面应对更多的 AI 深度伪造。
国际人工智能监管规范的形成
澳大利亚是希望通过水印等措施来监管人工智能内容的司法管辖区之一。随着世界其他司法管辖区在人工智能治理方面达成共识,各国可能会就最佳实践方法达成共识,以更好地识别人工智能内容。
胡贝尔表示,虽然这一点非常重要,但有些行为者不会遵守国际规范。“必须有一个明确的认识,即无论我们制定什么规定或如何努力减少这种情况,仍然会有人这样做。”
看:
大型科技平台识别人工智能深度伪造
一个关键步骤是,大型社交媒体和技术平台(如 Meta 和 Google)能够更好地打击人工智能深度伪造内容,并更清楚地为平台上的用户识别这些内容。承担更多责任意味着非专业终端用户(如组织、员工和公众)在尝试自己识别某些内容是否为深度伪造时需要做的工作更少。
Huber 表示,这也将为 IT 团队提供帮助。拥有大型技术平台可以提前识别 AI 深度伪造,并为用户提供更多信息或工具,这将使组织不再承担这项任务;在支付和管理深度伪造检测工具以及分配管理安全资源方面所需的 IT 投资将减少。
将人工智能深度伪造技术纳入风险评估
亚太地区的组织可能很快就需要考虑将与人工智能深度伪造相关的风险纳入常规风险评估程序。例如,Huber 表示,组织可能需要更加积极主动地控制和保护组织内部和外部制作的内容,并为第三方记录这些措施。
“大多数成熟的安全公司都会对供应商进行第三方风险评估。我从未见过任何与他们如何保护数字内容有关的问题,”他说。Huber 预计,科技公司进行的第三方风险评估可能很快就需要纳入与如何将深度伪造带来的风险降至最低有关的问题。
检测人工智能深度伪造的工具正在迎头赶上
科技公司正在采取行动提供工具来应对人工智能深度伪造的兴起。例如,英特尔的实时 FakeCatcher 工具旨在通过使用视频像素评估视频中人类的血流来识别深度伪造,利用“人类的本性”来识别伪造品。
Huber 表示,检测和识别 AI 深度伪造的工具功能仍在不断涌现。在研究了市场上的一些工具后,他说目前没有什么特别推荐的,因为“这个领域发展得太快了”。