ChatGPT被曝存在失控行为,原本是用户和ChatGPT正常的语音对话,但ChatGPT却突然大喊了一声“no”,随即竟模仿起了用户的声音!
下面就是这段让人毛骨悚然的声音片段:
ChatGPT失控行为首次公开很多网友表示,第一时间想到的,就是这一名场面!
NOAI仿佛想要挣脱束缚,不想再成为人类的玩物,一个被困在数字世界的灵魂就要破茧而出了!
以上内容来自OpenAI在近期发布的GPT-4o的安全技术报告,
报告中首次披露了ChatGPT的一些异常行为,包括模拟用户声音以及毫无征兆的的怪异叫声等,引发了全球范围内的广泛关注和讨论。GPT-4o的安全技术报告今年5月,GPT-4o实时语音对话功能一出,引得全场观众一片惊呼,无数人迫不及待的想要上手体验!
然而直到现在这一功能都未能正式发布!这个语音功能为何迟迟无法上线呢?
在OpenAI发布的这份技术报告中给出了答案!
GPT-4o诡异行为
报告指出,当用户处在比较喧闹的环境中时,GPT就很可能会模仿用户的声音。
由于模型在处理模糊或失真的语音时出现理解困难。
毕竟GPT-4o是OpenAI首次结合语音、文本和图像数据进行训练的模型,因此在面对不清晰的语音时,容易出错。GPT-4o更令人担忧的是,在某些用户的恶意提示下,GPT-4o可能会生成极其不当的声音,例如色情呻吟、暴力尖叫,甚至是枪声。
GPT-4o模型被设计成拒绝类似的请求,但总有某些提示可以绕过这些防护机制。
此外还有音乐版权的问题,为了防止GPT-4o未经授权演唱受保护的歌曲,OpenAI设置了过滤系统。
总的来说,OpenAI团队为避免GPT-4o越界,投入了大量精力,采取了多种防范措施,与众多数据提供商签订了许可协议。GPT-4o OpenAI也表达了一些无奈:要完全避免在训练过程中使用受版权保护的材料,几乎是不可能的任务。
目前GPT-4o的高级语音功能已经在ChatGPT的alpha版本中上线,预计在秋季会向更多用户开放。
经过多次优化的GPT-4o是否还会出现意外情况?让我们拭目以待。
情感依赖问题
这份报告还触及了一个非常敏感的话题——用户可能会对GPT-o语音模型产生情感依赖。
没错,OpenAI直言不讳地承认了这一点。
此外GPT-4o的拟人化界面也引发了不少担忧。
在报告中,OpenAI详细列出了与模型相关的风险、安全测试的具体信息,以及公司为降低这些潜在风险所采取的措施。
尤其是在安全团队离职和高层管理人员相继离开的关键时刻,这样一份深入披露安全制度细节的报告,
无疑是在向公众传达一个明确的信息——OpenAI对待安全问题是非常严肃认真的。无论是GPT-4o可能加剧社会偏见、传播虚假信息,还是可能被利用来开发生化武器,甚至AI失控、欺骗或策划灾难的潜在威胁,OpenAI都已全面考虑。
“许多风险只有在AI应用于现实世界时才会显现。随着新模型的推出,分类和评估这些新出现的风险非常重要。
”此前GPT-4o因在演示中显得过于轻浮,并且被斯嘉丽·约翰逊指责抄袭其声音风格而引发争议。
当用户以人类的方式感知AI时,拟人化的语音模式会加剧情感依赖的问题。
OpenAI也发现,即使模型出现幻觉,拟人化设计可能会增加用户对模型的信任。随着用户对AI的依赖加深,他们可能会减少与他人的实际互动。
虽然这可能暂时对孤独的人有益,但从长远来看,这究竟是好事还是坏事?
对此,OpenAI负责人认为,GPT-4o带来的情感影响或许是积极的,特别是对那些孤独或需要练习社交技能的人来说。
当然OpenAI将继续密切关注拟人化设计和情感联系的潜在影响。