2021-05-14

所有的人工智能研究都应该发表吗?

罗茜·坎贝尔关于人工智能领域负责任的研究和出版规范

本文章是由Jeremie Harris主持的关于数据科学和机器学习中新兴问题的播客系列的一部分。

在2019年初,OpenAI发布了GPT-2语言模型,他们最初选择不公布算法。他们最初选择不发布该算法,原因是担心该算法可能被恶意使用,以及AI行业需要试验新的、更负责任的发布实践,以反映现代AI系统日益强大的能力。

人工智能中的规范问题是复杂的,这就是为什么它是一个值得探讨的话题,人们既有作为研究人员的经验,也有作为政策专家的经验——像今天的《走向数据科学》播客嘉宾罗西·坎贝尔(Rosie Campbell)这样的人。Rosie是Partnership on AI(PAI)的安全关键型人工智能负责人,该公司是一家非盈利组织,汇集了政府、初创企业,还有谷歌、Facebook、微软和亚马逊等大型科技公司,旨在就人工智能对人类和社会的益处形成最佳实践、研究和公众对话。与PAI的同事们一起,Rosie最近完成了一份白皮书,探讨了当前关于人工智能研究中出版规范的热议,并为参与人工智能研究的研究人员、期刊和机构提出了建议。

只有研究人员愿意并且能够实施最佳实践和推荐的推出规范,它们才是有用的。因此,Rosie强调了推荐出版物规范的重要性,这些规范对研究过程的干扰最小,并且需要研究人员尽可能少的开销。例如,虽然她建议研究人员在发表的工作中包括一些关于他们贡献的潜在影响和用例的陈述,但是他们在这方面投入的时间应该与每个贡献的大小成比例。对于代表渐进式进展的项目(ML研究的绝大多数都是如此),研究人员应该少花时间思考他们工作的潜在危害和影响。

建立负责任的出版规范面临的最大挑战之一是,一个组织或研究团队如果不同意某一特定的出版框架,就可能干脆拒绝实施,从而破坏其他人的努力。事实上,这种情况已经发生了:2019年,OpenAI宣布推迟发布完整的GPT-2模型后不久,一个独立的研究团队开始着手复制,理由是限制对领先的人工智能系统的访问将阻止人工智能安全研究人员进行与人工智能能力同步所需的尖端研究。这就是为什么在研究人员中达成共识是如此的重要,在最低限度的负责任的出版标准上,每个人都愿意遵守。

期望忙碌的人工智能研究人员成为未来学家和政策专家,以便能够预测其工作的影响或潜在危害,这是不合理的。这就是为什么随着人工智能技术的发展,与社会科学家和伦理学家的合作将变得越来越重要。Rosie主张将这些学科更多地融合在一起,作为支持人工智能研究人员开发更强大影响评估的一种手段。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值