由OpenAI 的Sore视频生成模型引发的人脸识别安全担忧!

2022年OpenAI推出聊天机器人ChatGPT,能够生成具有连贯性和逻辑性的自然语言,模拟与人类对话的过程。2024年2月15日,OpenAI推出视频生成模型Sore,其生成的视频内容效果极其逼真,不仅打破外界对AI能力的认知,同时再次掀起AI讨论热潮。

目前Sore最长可以生成长达一分钟的视频,生成的视频自然流畅,并且Sore所生成的视频视觉细节丰富,物体纹理清晰,色彩逼真,整体可以达到以假乱真的效果。

但随着Sore视频生成模型推进AI技术发展的同时,也引发了人们对AI深度伪造视频可能加剧虚假信息传播的担忧。

一旦如Sore一类的视频生成模型普及,恐怕会导致深度伪造内容更加泛滥,造假成本更为低廉,进而增加被用于诈骗、色情等违法犯罪活动的风险和隐患。如若我们在社交网站上传的照片被犯罪分子利用,我们的人脸特征也将变得不再安全!

运用Sora生成的高清图像 图片来源:OpenAI官网

近几年,国内外出现了不少利用AI深度伪造技术实施的诈骗案例,造成了较大的负面影响。

如近期,香港警方就披露了一起AI“多人换脸”诈骗案,涉案金额高达2亿港元。在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元转账到了5个本地银行账户内,其后,向总部查询才知道受骗。这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

美国歌手泰勒·斯威夫特(Taylor Swift)就多次被AI深度造技术瞄准。2024年1月,Taylor Swift再次成为AI深度伪造技术的受害者,由AI生成的Taylor Swift虚假露骨照片在Twitter上疯传,短时间内浏览量飙升至上千万。白宫新闻发言人卡里娜·让-皮埃尔(Karine Jean-Pierre)对此事件警告AI生成照片的传播“令人担忧”,并敦促社交媒体公司防止此类错误信息的传播。

当然,目前公众人物更容易被AI深度伪造技术瞄准,但如果是普通人被AI制作虚假照片、视频被广泛传播,造成社会性死亡时,又该如何维权?而当犯罪分子用我们的人脸信息利用AI换脸骗过金融机构防火墙时,社会安全风险又该如何保障?

随着Sora等视频模型的开放和应用,AI换脸技术门槛将持续降低,别有用心之人利用深度伪造技术将我们的人脸特征、声音特征轻易盗用,被他人冒充身份,那越来越多的普通人恐将成为潜在受害者!

  • 9
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值