本文作为大模型综述第七篇,介绍大模型的安全性相关内容。
目录:
1.大模型安全风险引发全球广泛关注
2.大模型安全治理的标准规范
3.大模型安全风险的具体表现
4.大模型安全研究关键技术
1.大模型安全风险引发全球广泛关注
与大模型技术的突飞猛进形成鲜明对照的是,大模型仍面临诸多潜在的安全风险。大模型在应用的过程中,可能会产生与人类价值观不一致的输出,如歧视言论、辱骂、违背伦理道德的内容等,这种潜在的安全风险普遍存在于文本、图像、语音和视频等诸多应用场景中,并会随着模型的大规模部署带来日益严重的安全隐患,使得用户无法信赖人工智能系统做出的决策。更为重要的是,大型较为脆弱,对安全风险的防范能力不足,容易受到指令攻击、提示注入和后门攻击等恶意攻击。尤其是在政治、军事、金融、医疗等关键的涉密应用领域,任何形式的恶意攻击都可能给国家社会的稳定以及人民的生命财产安全带来严重的后果。
2.大模型安全治理的政策法规和标准规范
为确保大模型的安全和负责任地使用,各国的监管机构都在积极探讨并制定相应的安全标准和准则,为开发者和企业提供清晰的大模型应用和治理方向。2021 年 11 月,联合国教科文组织正式发布《人工智能伦理问题建议书》,指出“作为以国际法为依据、采用全球方法制定且注重人的尊严和人权以及性别平等、社会和经济正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护的准则性文书,可以引导人工智能技术向着负责任的方向发展”。2023 年 3 月,美国白宫科技政策办公室发布《促进隐私保护数据共享和分析的国家战略》。该策略旨在保障公共和私营部门实体中用户的数据隐私,同时确保数据使用的公平性和最大的效率。其中明确了政府的目标:支持有关数据伦理和社会技术问题的解决方案的研究、开发、监管和应用,同时确保用户的机密性不受损害。
3.大模型安全风险的具体表现
随着大模型在各领域的广泛应用,大模