别咧着大嘴嘎嘎和ChatGPT说

文章讨论了AI聊天机器人如ChatGPT如何保存和使用用户数据,强调了隐私和安全风险。AI公司可能会使用聊天记录进行模型训练和广告定位,用户应关注隐私政策。提到的案例和专家观点提醒人们要谨慎对待这些工具,考虑使用隐私保护措施。
摘要由CSDN通过智能技术生成

核心观点:

1.数字时代,个人与组织的隐私都变得更加脆弱。

2.AI 机器人会保存我们的聊天记录以用与模型迭代训练,此外还可能将用户数据用于广告。

3.数据的长期保留将扩大隐私和安全风险。用户应当了解 AI 公司的隐私保护政策,保护个人信息安全。

4.如何保护隐私,将隐私计算融入其中,降低泄露的风险。

今年 3 月,韩国三星半导体部门发生了三起因员工在 ChatGPT 上输入设备信息及重要会议摘要,导致公司机密外泄风险陡增的事件。无独有偶,3 月 31 日,意大利个人数据保护局宣布禁止使用人工智能软件ChatGPT,限制其开发公司 OpenAI 处理意大利用户信息,并开始立案调查。

对此,数字权利倡导组织数字民主中心的执行董事杰弗里切斯特指出,我们至少应该以怀疑的眼光看待这些工具,因为与许多其他流行技术一样,它们都受到广告和营销力量的影响。那么这些大模型究竟会在多大程度上保证我们的隐私安全呢?

自从 OpenAI、微软、谷歌推出 AI 聊天机器人,许多人开始尝试向人工智能模型咨询各种问题。ChatGPT 这么聪明,那我们告诉它的事,它是否会为我们保密,有没有可能说漏嘴呢?我们也把这些问题抛给了 ChatGPT “本人”,看看它是如何回答的。

1. AI机器人会保存我的聊天记录吗?

是的。 ChatGPT、Bing 和 Bard无一例外地都会保存我们输入的内容。了解这些语言模型的运作原理就不难理解,这些模型需要用户输入、交互数据以便后续持续的迭代训练。

ChatGPT 目前在用户个人管理中添加了一个关闭“Chat history & training”的选项。用户可以选择关闭聊天记录功能,来避免自己的个人数据被官方拿去训练。OpenAI 解释说:关闭该功能后,新的对话会在官方系统里存留 30 天。只有在监控是否存在数据滥用时才会审查这些数据,30 天后将永久删除。

谷歌 Bard 正在对少量用户进行测试,它提供了一个设置,让用户可以要求该公司停止保存查询记录,并取消与用户的谷歌账户相关联。只需点击左上角的菜单栏并关闭“Bard Activity”即可。

2. AI公司用我的聊天记录做什么?

AI 模型依赖于大型数据集的训练,因而显然 AI 公司会将用户数据用于训练 AI 模型以提供更好的答案。

但用途不止如此。你的聊天记录很可能会被用于广告。

谷歌和微软在 2 月份推出了 Bing 搜索引擎的 AI 聊天机器人版本,在他们的隐私政策中留有余地,可以将你的聊天记录用于广告。这意味着如果你和 AI 机器人聊过有关跑步机的问题,稍后可能会看到跑步机广告。

值得注意的是,当隐私敏感问题和数字广告交叉时,很可能会带来伤害。以用户健康信息为例,此前有报道显示,包括 WebMD 和 Drugs.com 在内的许多症状检查站点与外部广告公司分享了用户潜在的敏感健康问题,如抑郁症或艾滋病毒,以及用户标识符。此外,数据经纪人也会向买家出售大量的人员名单和他们的健康担忧清单,这些买家可能包括政府或保险公司。有些患有慢性疾病的人报告说,他们在互联网上看到了令人不安的定向广告。

鉴于此,用户应该审慎考虑在多大程度上相信这些公司会保护他们的数据,以避免侵入性广告,并谨慎决定与谷歌或微软分享多少隐私信息。

OpenAI 表示,公司只会保存用户的搜索结果来训练和改进其模型。OpenAI 发言人表示,该公司不会利用用户与聊天机器人的互动来建立用户档案或打广告,未来也没有这样的计划。

隐私非营利组织电子前沿基金会的社区组织副主任罗里·米尔 (Rory Mir) 表示,有些人可能不希望自己的数据被用于人工智能培训,而不管这些公司在广告方面采取什么样的立场。他补充说:“在某个时候,他们掌握的数据可能会落入另一家你不那么信任的公司手中。

3. 会有人看到我的聊天记录吗?

有时候,会有人工审查员参与审核聊天机器人的回答。这意味着,他们也会看到用户查询的问题。例如,谷歌保存了很多聊天记录以供审查和注释,最长可保存四年。尽管这些审查员无法查看用户的谷歌账户,但是谷歌还是建议用户在聊天中不要分享任何个人身份信息,包括姓名、地址或其他可以识别用户或其他人的细节。

4. 我的聊天记录会保存多长时间?

公司收集并长期保存用户聊天记录等数据将扩大隐私和安全风险,因为“这些公司可能会被黑客入侵,或者与不值得信任的商业伙伴分享这些数据。”米尔如是说。

OpenAI 的隐私政策显示,该公司保存用户数据的时间为“仅限于我们为用户提供服务或其他合法商业目的所需的时间”。这可能是无限期的,该公司发言人拒绝具体说明。

另外,谷歌和微软也会保留用户的数据,直到用户请求删除。

5. 我应当相信聊天机器人提供的信息吗?

显然,与常规搜索引擎相比,ChatGPT 可以帮我们过滤掉更多垃圾信息;与Google Scholar 相比,ChatGPT 可能可以更好地帮助我们找到与特定话题相关的研究。

但是,这些都不意味着我们应该依赖聊天机器人提供的信息。正如美国约翰·霍普金斯大学商学院教授、罗汉堂社区成员戴廷龙所说,这些模型已被证实可以编造信息,并把虚假信息被包装得很好,让人们信以为真。此外,人工智能模型还可能通过不可靠的来源获得信息。假如人们倾向于信任聊天机器人的推荐,可能会造成很大问题。

原先在搜索引擎页面,我们可以通过网站主体、内容编排等一眼快速判断消息的真伪,而这些一本正经地“胡说八道”的 AI 机器人的出现会让我们花费更多成本来辨别信息的真实性。

结论:

在数字化时代下,我们的数据和信息都储存在网络上,这使得我们的隐私变得更加脆弱。同时,数据泄露和网络攻击的风险也比以往任何时候都要高。无论是个人还是组织,都应该加强数据隐私保护意识和能力。

首先需要明确的是,AI 模型可以用,假如你不想让个人隐私信息或组织机密被保存在某个公司的服务器上,请使用隐私保护浏览器,并且禁止 AI 公司保存你与聊天机器人的聊天记录。AI 公司官方明确表明会搜集并长期储存用户聊天记录,存在一定的隐私泄露与安全风险。并且它们很可能与广告公司分享用户数据。

其次,在使用基于人工智能的各项服务之前,需要了解该公司的隐私政策,看看它是否适用数据来“改善服务”,或者与未透露身份的“供应商”或“商业合作伙伴”共享数据。这两个词通常是广告商的委婉说法。

此外,千万不要使用国内镜像网站,特别是免费的网站。由于缺乏监督管理再加上为了回本和挣钱,镜像网站中存在极高的信息泄露风险。

如果一定要应用,可以了解下隐私计算的原理,融入API中,将会大大减低你的隐私泄露风险。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

在逃毕业生

亲,谢谢您的支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值