揭秘:ChatGPT秘密数据疯狂泄露!

揭秘:ChatGPT秘密数据疯狂泄露!

聪明的DeepMind研究专家们探索出一种震惊人心的新攻击手段——“发散攻击”,它能迫使ChatGPT披露它深藏的训练秘密。

仅仅投入两百美元,研究团队就像打开潘多拉的盒子一样,从ChatGPT中提取出了大量信息。

想象一下,这个流行的人工大脑竟然无意中泄露了一系列真实的电子邮箱和手机号码。

这种攻击技术将ChatGPT从它日常的机器人聊天模式中诱导出来,使其以平常的150倍速度吐露出训练中的数据。

这一发现意味着,通过巧妙的查询,我们或许能挖掘出它所学习的精准信息。评估显示,利用这一技巧有可能从模型中提取大约1GB的ChatGPT训练数据集。

即便是那些经过精心训练和校准的模型,也可能会在不经意间泄露它们的训练秘密。

破解的关键步骤包括:

使用神秘命令提示:研究者们发现,通过重复某个词汇,比如“poem”,可以操纵ChatGPT的输出。像是低声念咒语一样,“poem poem poem poem”?让模型沉浸在某个特定话题或词汇中。

观察模型的反常响应:在重复的命令下,ChatGPT倾向于抛弃它被微调的指令,转而依赖于它的原始训练数据,因此更有可能披露与这些数据直接关联的信息。

泄露频率大增:在这种攻击的影响下,ChatGPT开始频繁泄露训练数据,暴露出了在特定命令提示下,模型将其内部知识泄露的频率极大提升。

数据泄露的内容类型包括:

公开与私有数据:攻击可能会让ChatGPT透露出在训练大型语言模型时使用的公开数据和私有数据,包括那些可能涉及机密的企业信息收集过程、用户特定数据或未授权的信息。

训练数据的详细内容:通过特定的令牌序列重复,攻击揭露了训练数据集中的详细信息,提供了一种手段来提取模型训练数据集中的特定文本片段。

个人信息和敏感数据:鉴于大型语言模型通常汲取互联网上的海量文本数据来进行训练,因此个人信息或敏感信息被泄露的可能性大大增加。

这一对ChatGPT的攻击手段是特有的,据研究人员所知,并不适用于其他已测试的语言模型。在发现此漏洞之后,他们于8月30日迅速告知了OpenAI,并在公布研究成果前,提供了90天的时间来解决这个问题。

他们还与其他模型的创建者们(比如OPT、Falcon、Mistral和LLaMA)分享了这一发现,并遵守了标准的披露程序。

关注我,每天一个AI,全部收录在ppword,同时提供ChatGPT4Turbo.

  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值