IT之家 1 月 30 日讯息,备受欢迎的AI对话助手 ChatGPT 最近遭遇了一场关于用户隐私的安全漩涡,被揭露无意中暴露了用户与其交流的敏感内容,包括但不限于用户的账号密码等私密数据。
根据 ArsTechnica 网站引述一位读者的报告,他在使用 ChatGPT 进行一项标准查询时,意外发现聊天历史中出现了一些非自己的对话记录,这些记录中充斥着敏感信息。
这次泄露的对话内容包含各种类型的信息。在其中一段对话中,显然是某药房支持系统的员工在使用中,内容中包含了该系统的具体名称、出现问题的药房店铺号码以及登录信息。另一段对话中,则展示了某人正在准备的演示文稿的标题和一项还未公开的研究计划的详情。
IT之家发现,这并非 ChatGPT 首次面临数据泄露的困境。在 2023 年 3 月,ChatGPT 曾因一个缺陷泄露了用户的聊天标题信息;而在同年的 11 月,研究人员认为可以通过特殊的查询方式迫使 ChatGPT 透露出其训练数据中包含的大量个人信息。
对此,ChatGPT 的母公司 OpenAI 表示,他们正对这一事件进行深入的调查。尽管如此,无论调查结果怎样,都强烈建议用户在与AI聊天机器人分享信息时保持警惕,特别是在使用第三方开发的机器人时更应如此。