ChatGPT成功背后的秘密——RLHF,北京大学NLP团队的论文详解来了
人工智能对齐(AIAlignment) 旨在使人工智能系统的行为与人类的意图和价值观相一致。随着人工智能系统的能力日益增强,对齐失败带来的风险也在不断增加。数百位人工智能专家和公众人物已经表达了对人工智能风险的担忧,他们认为“减轻人工智能带来的灭绝风险应该成为全球优先考虑的问题,与其他社会规模的风险如大流行病和核战争并列。”,为了提供对齐领域的全面和最新概述,由北京大学、剑桥大学、卡内基梅隆大学和香港中文大学等顶尖院校和独立学者深入探讨了对齐的核心概念、方法和实践。
原创
2024-07-21 15:40:21 ·
752 阅读 ·
0 评论