Anthropic、Google、Microsoft和OpenAI宣布成立某机构,确保前沿AI模型的安全和负责任开发...

拜登会晤后,四家AI公司(Anthropic、Google、Microsoft和OpenAI)成立FrontierModelForum,致力于AI模型的安全和负责任开发,关注安全研究、最佳实践及与各方合作,应对技术挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

点击蓝字 关注我们

关注并星标

从此不迷路

计算机视觉研究院

8f3ec6b32397bda6997c45f08a0f34fa.gif

1d0f5fc83e4a45298c8384609974b646.gif

公众号ID计算机视觉研究院

学习群扫码在主页获取加入方式

计算机视觉研究院专栏

Column of Computer Vision Institute

拜登总统上周会见了七家人工智能公司,寻求人工智能产品的自愿保障措施,并讨论未来的监管前景。

55e3602f208cd8bda5c2403f53a236e1.gif

现在,其中四家公司已经组建了一个新的联盟,旨在促进负责任的人工智能发展,并在面对日益严格的政府和社会监督时建立行业标准。

“今天,Anthropic,Google,Microsoft和OpenAI宣布成立Frontier Model Forum,这是一个新的行业机构,致力于确保前沿AI模型的安全和负责任开发。”OpenAI网站上的一份声明中写道。

声明说,为了“整个人工智能生态系统”的利益,前沿模型论坛将利用其成员公司的技术和运营专业知识。该小组寻求推进技术标准,包括基准和评估,并开发一个公共解决方案库。

联盟的核心目标包括:

  • 推进人工智能安全研究,以促进前沿模型的负责任开发,最大限度地降低风险,并对能力和安全性进行独立、标准化的评估。

  • 确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。

  • 与政策制定者、学术界、民间社会和公司合作,分享有关信任和安全风险的知识。

  • 支持开发有助于应对社会最大挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。

该论坛将“前沿模型”描述为大规模机器学习模型,在完成各种任务方面优于当前顶级模型的能力。

该小组计划解决负责任的人工智能发展问题,重点关注三个关键领域:确定最佳实践,推进人工智能安全研究,以及促进公司和政府之间的信息共享。

dde85280f5edb7cf7280f07a9ec99f60.jpeg

”论坛将协调研究,以在对抗稳健性,机械可解释性,可扩展监督,独立研究访问,紧急行为和异常检测等领域推进这些努力”。

列出的其他未来行动包括建立一个咨询委员会来指导集团的战略和优先事项,以及组建章程、治理和资助等机构,包括工作组和执行委员会。论坛表示支持现有的行业努力,如人工智能伙伴关系和MLCommons,并计划与民间社会和政府就“有意义的合作方式”进行磋商。

虽然该联盟只有四名成员,但它向积极开发和实施这些前沿模式的组织开放,通过技术和制度手段表现出对自身安全的坚定承诺,并准备通过积极参与联合倡议来推进论坛的目标,根据成员要求清单。

“论坛欢迎符合这些标准的组织加入这项工作,并合作确保前沿人工智能模型的安全和负责任开发,”该组织写道。

这些目标仍然有些模糊,上周白宫会议的结果也是如此。拜登总统在关于会议的讲话中承认了人工智能的变革性影响以及以安全为优先事项的负责任创新的必要性。他还指出,需要两党立法来规范个人数据的收集,维护民主,并管理先进人工智能对就业和行业的潜在破坏。为了实现这一目标,拜登表示,需要一个共同的框架来管理人工智能的发展。

a2d3816c9f97793ec5a67b0780c694e4.png

“社交媒体向我们展示了强大的技术在没有正确保障的情况下可能造成的伤害。我在国情咨文中说过,国会需要通过两党立法,严格限制个人数据收集,禁止针对儿童的定向广告,并要求公司将健康和安全放在首位“。总统说,他指出,我们必须“对新兴技术可能对我们的民主和价值观构成的威胁保持清醒和警惕,这些威胁不是必须的,而是可能的。”

批评人士表示,主要人工智能参与者的这些自我监管尝试可能会创造新一代的技术垄断。

人工智能写作平台总裁Jasper Shane Orlick在一封电子邮件中告诉EnterpriseAI,政府和人工智能创新者之间需要持续深入的接触。

奥利克说:“人工智能将影响生活和社会的方方面面,任何如此全面的技术,政府都必须发挥作用,保护我们免受意外后果的影响,并围绕这些新创新创造的重要问题建立一个单一的真相来源,包括安全人工智能的实际参数”。

他继续说:“政府最近的行动很有希望,但从长远来看,深化政府和创新者之间的接触至关重要,以将道德置于人工智能的中心,加深和维持对不可避免的减速带的信任,并最终确保人工智能成为一股向善的力量。这还包括确保法规不会化解竞争,从而创造新一代的技术垄断,而是邀请所有人工智能社区负责任地参与这一社会转型。

© THE END 

转载请联系本公众号获得授权

83d9a4846e7887969cca3780920a2c3b.gif

计算机视觉研究院学习群等你加入!

ABOUT

计算机视觉研究院

计算机视觉研究院主要涉及深度学习领域,主要致力于目标检测、目标跟踪、图像分割、OCR、模型量化、模型部署等研究方向。研究院每日分享最新的论文算法新框架,提供论文一键下载,并分享实战项目。研究院主要着重”技术研究“和“实践落地”。研究院会针对不同领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

91be27818eaa695025963afa18236352.png

 往期推荐 

🔗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机视觉研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值