GPT-4 考 90 分全假!30 年资深律师用 ChatGPT 打官司,6 个虚假案例成笑柄

97f2428bb5a331d555f48b72686e50b0.jpeg

这是「进击的Coder」的第 835 篇技术分享

编辑:桃子 拉燕

来源:新智元报道 

阅读本文大概需要 5 分钟。

【新智元导读】ChatGPT 又有什么错呢?美国律师向法院提交的文件中,竟引用了 6 个根本不存在的案例,反倒惹祸上身被制裁。

ChatGPT,真的不可信!

在美国近来的一起诉讼案件中,一位律师帮原告打官司,引用了 ChatGPT 捏造的 6 个不存在的案例。

法官当庭指出,律师的辩护状是一个彻头彻尾的谎言,简直离了大谱。

4a7aeac793b815b47f3a66089f4ac172.png

然而,律师为自己辩护中,甚至提交了和 ChatGPT 聊天截图的证据。

显然,ChatGPT 称「这些案例都是真实存在的」。

f430869a2d363c53278fb436540e4f1f.png

本为原告打的官司,自己竟惹祸上身,将受到制裁,这波操作瞬间在网上引起轩然大波。

毕竟,GPT-4 刚诞生时,OpenAI 放出它在律师资格考试(UBE)的成绩,还拿到了 90 分。

26d32201f25148a47960f1c747469c17.png

网友警告,千万不要用 ChatGPT 进行法律研究!!!

491373e970060a37547570e95cb2d733.png

还有人戏称,要怪就怪你的 prompt 不行。

1cbea71bb80842719c5c9f87f2d6f94d.png

律师承认使用 ChatGPT


这起诉讼的起始和其他许多案件一样。

一位名叫 Roberto Mata 的男子在飞往纽约肯尼迪国际机场的航班上,不幸被一辆餐车撞到膝盖,导致受伤。

由此,他便要起诉这架航班的「哥伦比亚航空公司」(Avianca)。

ccf08eb4a8344abe70a54b30a672b387.png

Mata 聘请了 Levidow,Levidow & Oberman 律所的一位律师来替自己打这个官司。

接手案子后,律师 Steven A. Schwartz 向法院提交了一份 10 页的辩护状。其中,引用了 6 个相关的法院判决:

Varghese V. 中国南方航空公司

Shaboon V. 埃及航空公司

Petersen V. 伊朗航空公司

Martinez  达美航空公司

Estate of Durden V. 荷兰皇家航空公司

Miller V. 美国联合航空公司

4ce16f5abb8a461ec98b373d72d0317b.png

原文件:

https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf

然而,让所有人震惊的是,从案件本身,到司法判决,再到内部引文,全是假的!

为什么假?因为是 ChatGPT 生成的。

031047323b614259c7b835cdf5e89158.png

这不,麻烦就来了。

目前,对方律师考虑举行听证会,对原告律师进行制裁。

Schwartz 律师,可以说已经非常资深,在纽约从事法律工作已有 30 年。

从他的话中得知,自己吃了大亏,竟是从来没用过 ChatGPT,由此没有意识到它生成的内容是假的。说来,还是太离谱285471108a54399e517e03f91838701f.png

原告律师 Steven A. Schwartz 在一份宣誓书中承认,他确实用了 ChatGPT 进行相关研究。

69f2e29f34adf93112d93cfdc009ebbe.png

为了验证这些案件的真实性,他做了唯一一件合理的事:让 ChatGPT 验证这些案件的真实性。

他告诉法官,「自己无意欺骗法庭或航空公司」。

8d9b54f568401bc0f3a35a131540e4ff.jpeg

2d0611bbad038162015535559e48c7f2.jpeg

当他询问 ChatGPT 这些案件的来源时,ChatGPT 先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在 Westlaw 和 LexisNexis 上找到。

而对方律师也同样坚持,来自 Levidow & Oberman 律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。

在其中一个案例中,有个叫 Varghese 的人起诉中国南方航空有限公司。然而这件事压根不存在。

ChatGPT 好像引用了另一个案件 ——Zicherman 起诉大韩航空有限公司。而 ChatGPT 把日期、案件细节什么的都搞错了。

Schwartz 此时才悔恨地表示,他没有意识到 ChatGPT 可能提供假案件,现在他非常后悔用生成式 AI 来进行法律研究。

法官表示,这种情况前所未见,并将于 6 月 8 日举行听证会,讨论可能的制裁措施。

84a89a8ef905cfe0155abd0c458e01d8.png

这件事情再次体现了一个很重要的事实,那就是用完 ChatGPT 必须用其它来源进行双重,甚至三重查证。

而 AI 模型在信息输入上出现重大事实错误已经不是第一次了,谷歌的 Bard 也遇到过这种问题。

90 分?GPT-4 成绩被夸大


还记得 GPT-4 刚刚发布那天,「小镇做题家」在各项考试指标上接近满分的水平。

尤其,在美国统一律师资格考试(UBE)中,GPT-4 可以拿到 90% 水平,而ChatGPT(GPT-3.5)也仅拿到 10% 的分数。

0f8e50724f08b3da0102da932693bc4c.png

但是,没过多久,来自MIT的研究人员 Eric Martínez 发了一篇论文,重新评估了 GPT-4 在 Bar 考试中的表现。

论文直言,GPT-4 的律师考试成绩被夸大了。

cba2ca63598b5b5b480cdf400cfaacd9.png

论文地址:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4441311

作者在文中提出了 4 组发现,表明 OpenAI 对 GPT-4 在 UBE 的表现,尽管明显比 GPT-3.5 有令人印象深刻的飞跃,但似乎过于夸大。

特别是,如果被当作代表「百分位数下限范围」的保守估计。更不用说,意在反映一位执业律师的实际能力了。

首先,GPT-4 的律师考试成绩,是与 2 月份伊利诺伊州律师考试的应试者相比较的。

5cc6abca8945cb78923256cadc1b9a8b.png

值得注意的是,这些考生都是复读生,不难理解,他们的分数可能会更差。

f43357dcb6469b1ea35f5c5de072439d.png

其次,最近一次七月份考试的数据表明,GPT-4 的 UBE 成绩为 68%。

第三,通过检查官方 NCBE 数据,并使用若干保守的统计假设,估计 GPT-4 在所有首次考试中实现 63%。

最后,当只考虑那些通过考试的人(即已获得许可或待许可的律师)时,预计 GPT-4 的表现将下降到 48%。

87843fb1127f5914a0bc54fcec8413fc.png

网友称,更准确来说,GPT-4 应该只有 63 分,或者 68 分。

c883c27d8dc589412a483b835d88120b.png

文中,作者还提供了深刻的见解,探讨了将法律任务外包给 AI 模型的可取性和可行性。

甚至,人工智能开发人员实施严格和透明的能力评估,以帮助确保安全和可靠的人工智能的重要性。

要是,原告的那位律师看过这项研究后,说不定就不会吃大亏了。

1b45ff5f96046f0fd76516db3159544e.png

ChatGPT 胡说八道


归根结底,ChatGPT 能够编造出 6 个不在的案例,还是因为它固有的「幻觉」问题。

直白来讲,就是张口胡说八道的天性所致。

就连马斯克都想拯救这个致命的问题,官宣推出了名为 TruthGPT 的 AI 平台。

马斯克曾表示,TruthGPT 将是一个「最大的求真人工智能」,它将试图理解宇宙的本质。

8dfc3887cc8614884fd4ddeb03d839d7.png

然而,别管什么 GPT,幻觉很难搞定。

前段时间,OpenAI 联合创始人兼研究员 John Schulman 在演讲「RL and Truthfulness – Towards TruthGPT」中,讨论了幻觉产生的原因以及解决方案。

19f2acacb133b0dd54faf452c7c9813b.png

根据 Schulman 的说法,幻觉大致可以分为两种类型:

1 模式完成行为,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误

2 模型猜测错误

语言模型代表一种知识图谱,该图谱将训练数据中的事实存储在自己的网络中。而微调可以理解为「学习一个函数」,能够在知识图谱上操作并输出 token 预测。

比如,微调数据集中,如果有包含「星球大战是什么片?」这个问题,以及「科幻」这个答案。

9e7ffbf97e426833e0316aae56a994c9.png

要是这一信息在原始训练数据中存在,那么模型就不会学习新信息,而是学习一种行为——输出答案。而这种微调也被称为「行为克隆」。

如果「星球大战是什么片?」这一问题的答案不是原始训练数据的一部分。即便不知道,模型也会学习正确答案。

但问题是,使用这些不在知识图谱中的答案进行微调,就会让模型学会编造答案,即产生所谓的「幻觉」。

相反,要是用不正确的答案去训练模型,就会导致模型知识网络隐瞒信息。

网友热评


此事一出,各位网友也是各抒己见。

Kim 表示,不光是 ChatGPT,其实人类也爱用想象来弥补知识盲区。只不过 ChatGPT 能装的更逼真。关键在于,要搞清楚 ChatGPT 知道什么、不知道什么。

d64023954e92bd50bf747e3207a7b782.png

Zero 提出了一个很有建设性的提议,那就是:以后 ChatGPT 再举事例,后面得附上来源链接。

4d09bee56ba3f288f39f9204dbbc7aa7.png

Francis 表示,早说过了,ChatGPT 是一种生成式人工智能。意味着它会根据输入的问题生成回答。无论它有多能模仿人类在理解问题后的精彩回答,也改变不了 ChatGPT 本身并不理解这个问题的事实。

d1fce84b7cdeee1c437ae0b0ad47941c.png

Tricorn 认为,这位原告律师不应该把锅扔给 ChatGPT,是他自己用错了。应该是把事例当作 prompt 的一部分输入进去,然后让 ChatGPT 填补中间缺环的论证部分。

0b6d1383e46b712a3a30f41842a00179.png

还有网友称,用 ChatGPT 要上点心,要不下一个超级碗就是你了。

eddec125253f2ec774065bc1d152609e.png

这就是活灵活现的证据。ChatGPT 等人工智能工具做人类的工作,真的是可能直接导致我们的大灾难。

48b43dde40fa417c0dce48eda1f99f52.png

对于 ChatGPT 这个表现,你怎么看?

参考资料:

https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research

https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.htm

937c817a7e31e0d99f6dc33e2ec67f4d.png

End

崔庆才的新书《Python3网络爬虫开发实战(第二版)》已经正式上市了!书中详细介绍了零基础用 Python 开发爬虫的各方面知识,同时相比第一版新增了 JavaScript 逆向、Android 逆向、异步爬虫、深度学习、Kubernetes 相关内容,‍同时本书已经获得 Python 之父 Guido 的推荐,目前本书正在七折促销中!

内容介绍:《Python3网络爬虫开发实战(第二版)》内容介绍

788be8bf04a12fb5c8e18e7d2aabcbc6.jpeg

扫码购买

537e3f1436175330f84849ae5f65457b.png

好文和朋友一起看~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值