第3章 大模型的有害性(上)
3.1 引言
在这次内容中,我们将开始探讨大型语言模型的有害性(危害)。在这门课程中,我们将涵盖几种这些危害:
- 性能差异(本节)
- 社会偏见和刻板印象(本节)
- 有害信息(下一节)
- 虚假信息(下一节)
另外在之后的课程中会讲述其他更多层面的危害性:
- 安全和隐私风险(未来内容)
- 版权和法律保护(未来内容)
- 环境影响(未来内容)
- 权力集中(未来内容)
新兴技术的危害:我们知道“能力越大责任越大,对于当前开创性的大模型来说,我们需要了解这些模型的能力和危害之间的密切关系。大模型的能力所展示的潜力将导致这些模型被广泛的采用,但是与此同时造成它们的危害。
由于AI的发展是近几年发展的产物,因此对于危害的研究与预防依旧是一个很新的事情。因此回顾历史,从过往历史中的其他领域中的危害、安全和伦理问题的防御进行了解,首先考虑一些在具有成熟的危害和安全传统的学科中使用的高层次思想和方法,有助于对当前AI领域有所借鉴
贝尔蒙特报告和IRB。
- 贝尔蒙特报告于1979年编写,概述了三个原则(尊重人员、善行和公正)。
- 该报告是机构审查委员会(IRB)的基础。
- IRB是审查和批准涉及人类研究的委员会