本文是LLM系列文章,针对《Regulating Large Language Models》的翻译。
1 引言
2 政策主题领域
2.1 真实性
2.2 隐私
2.3 市场集中
3 监管干预
4 结论
大型语言模型、法律和政策圆桌会议的目的是探讨语言模型对社会构成的威胁,并就如何利用法律和政策来应对这些威胁提出想法。正如预期的那样,这次活动并没有以就一个全面充实的监管模式达成共识而结束。然而,除了上述主题和监管建议外,圆桌会议还就如何处理和构建关于大型语言模型的监管对话提出了一些重要的一般性意见。
首先,我们发现,与早期技术及其监管制度的比较有助于揭示对大型语言模型的担忧哪些是新颖的,哪些不是。参与者将语言模型与搜索引擎、数据库、社交媒体平台和其他技术进行了比较。虽然没有一对一的比较,但询问他们的过程有助于优先考虑最紧迫的问题,并确定那些需要更多研究才能解决的问题。这同样适用于现有的监管方法。例如,关于为什么侵权法迄今为止在很大程度上未能保护个人免受隐私伤害的讨论,阐明了为什么它也可能未能解决语言模型的个人伤害问题。
其次,语言模型的内部复杂性使得人们很难知道现有的法律应该适用于它们以及如何适用。即使研究人员完全可以访问训练数据和模型权重,也几乎不可能确定模型为什么会产生给定的输出。这给分配法律责任带来了挑战,因为不清楚意外或不希望的结果是由“有缺陷”的训练数据、模型构建、微调还是使用造成的。例如,这使责任法、言论自由和CDA第230条的应用变得复杂,因为这些法律依赖于“沟