如何保护您的企业免受人工智能生成的深度伪造品的侵害

网络犯罪分子利用深度伪造技术实施诈骗,误导公司员工转移巨款。AI技术的滥用引发安全担忧,金融机构面临语音克隆攻击。各国加强法律监管,企业需采取行动,通过教育和多层身份验证防范Deepfake威胁。
摘要由CSDN通过智能技术生成

最近,网络犯罪分子利用一家跨国公司高管的“深度伪造”视频,说服该公司驻香港的员工汇出 2560 万美元。 根据包含多个 Deepfake 的视频电话会议,员工认为是他们驻英国的首席财务官要求转移资金。 据报道,警方已逮捕六名与该诈骗案有关的人。 人工智能技术的这种使用是危险的且具有操纵性。 如果没有适当的指导方针和框架,更多的组织可能会成为深度伪造等人工智能骗局的受害者。

Deepfakes 101 及其日益严重的威胁
Deepfakes 是经过数字修改的媒体形式——包括照片、视频和音频剪辑——似乎描绘了一个真实的人。 它们是通过在以人物为主角的真实剪辑上训练人工智能系统,然后使用该人工智能系统生成逼真(但不真实)的新媒体来创建的。 Deepfake 的使用正变得越来越普遍。 香港案件是最近几周一系列备受瞩目的深度造假事件中的最新一起。 泰勒·斯威夫特 (Taylor Swift) 的虚假露骨图片在社交媒体上流传,巴基斯坦一名被监禁的选举候选人的政党使用他的深度伪造视频发表演讲,拜登总统的深度伪造“声音克隆”打电话给初选选民,告诉他们不要这样做 投票。

网络犯罪分子使用深度伪造技术的不太引人注目的案件的规模和复杂程度也在不断上升。 在银行业,网络犯罪分子现在正试图通过使用人的语音克隆来冒充用户并获取他们的资金,从而克服语音身份验证。 银行的应对措施是提高识别深度伪造使用的能力并提高身份验证要求。

网络犯罪分子还针对个人进行使用深度伪造的“鱼叉式网络钓鱼”攻击。 一种常见的做法是通过使用语音克隆冒充某人打电话来欺骗某人的家人和朋友,并要求将资金转入第三方账户。 去年,迈克菲的一项调查发现,70% 的受访者对自己能够区分人和声音克隆没有信心,并且如果拨打电话的家人或朋友声称,近一半的受访者会回应资金请求 被抢劫或遭遇车祸。

网络犯罪分子还打电话给冒充税务机关、银行、医疗保健提供者和保险公司的人,以获取财务和个人详细信息。

今年 2 月,美国联邦通信委员会裁定,除非事先得到被叫方的明确同意,否则使用人工智能生成的人声拨打电话是非法的。 联邦贸易委员会还敲定了一项禁止人工智能冒充政府组织和企业的规则,并提出了一项类似的禁止人工智能冒充个人的规则。 这增加了世界各地为打击深度造假而采取的越来越多的法律和监管措施。

防范深度造假
为了保护员工和品牌声誉免受深度造假的影响,领导者应遵循以下步骤:

  1. 持续对员工进行有关人工智能诈骗的教育,更广泛地说,有关新人工智能功能及其风险的教育。
  2. 升级网络钓鱼指南以包含深度伪造威胁。 许多公司已经对员工进行了有关网络钓鱼电子邮件的教育,并敦促在通过未经请求的电子邮件收到可疑请求时保持谨慎。 此类网络钓鱼指南应包含人工智能深度伪造诈骗,并注意它不仅可能使用文本和电子邮件,还可能使用视频、图像和音频。
  3. 适当增加或调整对员工、业务合作伙伴和客户的认证。 例如,根据决策或交易的敏感性和风险,使用多种身份验证模式。
  4. 考虑深度假货对公司资产(如徽标、广告角色和广告活动)的影响。 此类公司资产可以轻松地使用深度伪造技术进行复制,并通过社交媒体和其他互联网渠道快速传播。 考虑您的公司将如何减轻这些风险并教育利益相关者。
  5. 考虑到生成型人工智能的进步速度、2024 年正在进行的重大选举进程的数量以及深度伪造品在人与人之间以及跨境传播的便利性,预计会有更多更好的深度伪造品。

尽管深度造假是一个网络安全问题,但企业也应该将其视为具有更广泛影响的复杂且新兴的现象。 采取积极主动、深思熟虑的方法来解决深度造假问题,可以帮助教育利益相关者,并确保打击这些问题的措施是负责任的、相称的和适当的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值