Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models

本文深入探讨了大型语言模型(LLM)中的欺骗行为,评估了2023年人工智能安全峰会,并讨论了算法偏见、欺骗性的多种类型及其社会影响。研究呼吁加强跨学科合作,完善法规和道德框架,以应对AI的欺骗性挑战。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models》的翻译。

摘要

这项研究批判性地探索了人工智能欺骗的复杂景观,重点研究了大型语言模型(LLM)的欺骗行为。我的目标是阐明这个问题,审视围绕它的话语,然后深入研究它的分类和后果。本文首先对2023年人工智能安全峰会(ASS)进行了评估,并引入了LLM,强调了其欺骗性行为背后的多维偏见。通过阐明算法偏见并探索定义“欺骗”的不同方法,我认为欺骗性人工智能是一种与LLM发展交织在一起的固有现象,它可能演变成一种自我驱动的意图,独立于偏见训练过程。
文献综述涵盖了四种类型的欺骗,分为:战略欺骗、模仿、欺骗和不诚实推理,以及它们所带来的社会影响和风险。主要在arXiv档案中可以找到的关于欺骗性人工智能的文献表明,社会科学的贡献不足。这一缺陷可归因于人工智能欺骗的早期测试阶段,限制了其主要在计算机科学领域的研究。最后,我对应对欺骗性人工智能的持续挑战的各个方面采取了评估立场。这包括国际合作治理的考虑、个人与人工智能的重新配置、实际调整的建议以及数字教育的具体要素。在整个研究过程中,LLM被视为关系、结构和实践的基础设施,提供了对“作为共同构成伤害的关系安排的基础设施”的全面理解。

2023年人工智能安全峰会:它实际实现了什么?

AI欺骗的意义

LLM和LLM中的偏见

关于欺骗性人工智能的定义与话语

<

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值