【源头活水】顶刊解读!Nature子刊 Machine Intelligence(IF 18.8)2024年第6卷第4期(1)...

“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!

120a24c226e1727fe7a9b3dcc8590a26.gif

机器学习代码复用

1. The rewards of reusable machine learning code. Nat Mach Intell 6, 369 (2024). 

https://doi.org/10.1038/s42256-024-00835-5(Editorial

机器学习代码复用

涉及精心设计的机器学习工具的研究工作可以为研究社区乃至更广泛的领域带来持久的价值,只要这些方法、数据集和代码被清晰地描述并共享。近年来,我们观察到,在提交的论文中关于代码和数据的可用性标准有了明显的提高,这对开放科学和可复制性来说是个好消息。

代码应在同行评审过程中提供给审稿人,并在发表时公开发布。我们要求审稿人审查代码,如果可能的话,尝试运行它并复现论文中的发现。为了促进这一过程,作者可以选择通过Code Ocean平台以可执行计算胶囊的形式上传他们的代码。这使得审稿人可以在不需要安装各种库或软件包的情况下访问代码。

为了突出高质量代码开发的价值,我们在2020年引入了一种称为“可重用性报告”的文章格式,这些报告专门用于测试先前发表代码的健壮性、可扩展性和可重用性。到目前为止,已经发表了12篇可重用性报告,我们受到来自作者和审稿人的一致积极反馈,对此感到鼓舞。

开发高质量的代码和软件,这些代码和软件可以重新实现并扩展到新数据,甚至超出原始范围,可以催化进一步的研究并启发新的方向。

bf6c9cd8d5158deaac45b70addf85493.gif

联邦学习、数据伦理问题

2. Bak, M., Madai, V.I., Celi, L.A. et al. Federated learning is not a cure-all for data ethics. Nat Mach Intell 6, 370–372 (2024). 

https://doi.org/10.1038/s42256-024-00813-x(Comment

联邦学习、数据伦理问题

联邦学习(FL)作为一种有前途的解决方案,已经获得了广泛的关注,它允许在保持“隐私保护”的同时进行人工智能创新。“联邦”一词指的是学习是由参与的客户端组成的联盟来执行的。FL已经成为使用标准数据格式的某些机器学习项目中的宝贵方法,例如涉及医学成像的项目。

我们关注的是,在数字卫生领域,例如在卫生机构和管理机构方面,过于急于将FL作为数据治理问题的技术解决方案,而没有充分认识到其局限性。因此,在使用FL时重要的道德和实践权衡可能会被部署它的人所忽视。在这篇评论中,我们认为对FL的热情应该与对其局限性的平衡检查相结合。

敏感数据不被转移到FL的中心点这一事实减轻了有关数据转移的某些隐私担忧,并允许组织避免行政上繁重的数据转移协议,但这并没有减轻数据持有人的数据保护责任。此外,尽管联邦学习消除了从中央数据库窃取数据的可能性,但它并没有提供任何针对重新识别的正式保证。众多研究表明,有可能从联邦学习中共享的模型信息中反向工程出对隐私敏感的数据。因此,对于联邦学习来说,“隐私保护”这个术语并不完全恰当。

FL模型的准确性可能会受到上述差分隐私方法的影响,这些方法向模型添加噪声,这并不是联邦学习(FL)独有的问题,但在结合差分隐私和FL时需要被认识到。模型的准确性也可能受到敌对行为者通过数据和模型“投毒”攻击的伤害,这些攻击旨在降低FL系统的性能

鉴于临床实践和电子健康记录数据的异质性,数据整理和在FL中有意义的数据集互操作性仍然是一个挑战,通常需要额外且成本较高的步骤。另一个主要的复杂问题是,FL方法可能导致模型产生偏差。考虑到在集中训练的数据上检测和修正算法偏差已经很具挑战性,当学习是分布式的,每个“节点”只能看到自己的数据时,这个问题就更加困难了。偏差通常是由于(少数群体)在源数据中的代表性不足,或这些群体对特定变量的访问受限造成的。

除了偏差问题,FL合作中还可能出现各种其他公平性问题。并非所有参与方都可能对全局模型的训练做出相等的贡献,但所有贡献者都能从中平等获益。这种“贡献不公平”是否是医疗保健领域的常见问题,以及如何解决这一问题,仍然是一个未解决的问题。计算方法可能是解决FL中贡献公平性的有希望的途径,但目前它们过于复杂,难以以成本效益高且明显公平的方式实施。

另一个伦理问题出现在考虑由FL创建的模型的透明度时透明度的一个标志性特征是可解释性,这意味着人类利益相关者能够理解哪些因素驱动了模型的预测。这对于人工神经网络(ANN)模型尤其重要,它们在涉及FL时主要被应用。ANN通常是黑盒,而可解释性方法允许识别对提供预测相关的特征,无论是在全局(模型)还是局部(每个预测)层面。考虑到可解释性方法的复杂性以及在考虑偏差时FL的技术挑战,我们认为可解释人工智能(XAI)与FL的结合可能加剧了伦理和法律挑战,这需要在正在进行的努力中进一步探索。

FL和类似的方法,如群体学习(swarm learning),是健康数据科学中去中心化趋势的一部分。近年来,在数据收集和链接的技术方法方面取得了发展,这些方法增加了个人重新识别的风险,同时大型科技公司和国家政府对个人数据的收集和使用也在不断增加。尽管对数据集中式系统的批评有一定的道理,但人们对去中心化的缺点关注不足

随着第三方(包括商业机构)推动的(更加)去中心化的机器学习(ML)的兴起,我们应该小心,不要陷入同样的过度简化的陷阱。在某些情况下,集中数据可能是更可取的,而且应该在不失去公众对数据驱动医学的信任的情况下保持这种可能性。总而言之,在某些情况下,进一步的去中心化是有价值的,但也存在一些情况,避免过快转向去中心化会更明智。在决定使用特定的ML方法之前,应该与相关利益相关者讨论其伦理利益和缺点。

良好的数据治理需要持续的勤勉和跨学科的努力,以及更广泛的关于因FL而加剧的人工智能伦理问题的讨论。机器学习社区应该欢迎这样的倡议,以解决FL的技术限制,但同时要保持敏感,认识到并非一切都可以通过技术来解决,权衡和责任问题仍然存在,这需要真正的伦理工作。

在实践中,特定情境下FL的利弊必须逐案权衡。因为许多FL问题的关键在于它们本质上是跨学科的,这要求开发者、医疗提供者和伦理学家之间进行合作。

42561f0fd3e114de0f135d2c5d589978.gif

测试集上的受试者工作特征曲线下面积探究

3. Roberts, M., Hazan, A., Dittmer, S. et al. The curious case of the test set AUROC. Nat Mach Intell 6, 373–376 (2024). 

https://doi.org/10.1038/s42256-024-00817-7

测试集上的受试者工作特征曲线下面积(AUROC)探究

受试者工作特征曲线下面积(AUROC)在整个机器学习(ML)中用于评估模型的性能。然而,当一致性不是唯一的目标时,这只能提供对性能的部分观察,掩盖了模型输出的分布变化和模型的不稳定性。然而,我们认为,仅考虑从测试ROC曲线得出的分数,只能对模型的性能及其泛化能力提供有限的洞察

这篇文章讨论了直接使用AUROC来评估模型的泛化能力,会掩盖两个关键问题,即模型输出的分布偏移以及在操作点微小扰动下灵敏度和特异性的不稳定变化

这篇评论旨在向机器学习实践者社区发出号召,指出当前评估模型性能的方法存在严重的不足。我们强调了几种可能的方法,这些方法可以评估验证数据和测试数据之间的分布偏移和性能漂移。然而,这些方法并非穷尽无遗,也不一定是最佳方法。机器学习社区需要进行系统性、稳健和协调一致的努力来考虑这些问题,我们希望这篇评论能够成为此类讨论和研究的起点。

3026bab031d40d15f8c406f3deb7fe72.gif

语音技术

4. Teodorescu, M.H.M., Geiger, M.K. & Morse, L. Dangers of speech technology for workplace diversity. Nat Mach Intell 6, 377–380 (2024). 

https://doi.org/10.1038/s42256-024-00827-5

语音技术提供了许多应用来增强员工的生产力和效率。然而,对于边缘化群体来说,新的危险出现了,这可能危及组织促进工作场所多样性的努力。我们的分析深入探讨了语音技术的三个关键风险,并提供了负责任地减轻这些风险的指导

如果设计和实施不当,技术有可能加剧工作场所的社会不平等。事实上,语音技术可能会不成比例地对边缘化员工造成不利影响,削弱他们的工作表现以及他们在工作场所被听到的程度。这篇评论概述了组织环境中与语音技术相关的关键危险,重点关注其对工作场所多样性和包容性的潜在负面影响。

ac98cd312f6375153d2d57567014a1e9.gif

利用AI探索先天-后天智能起源

5. Wood, J.N. Artificial intelligence tackles the nature–nurture debate. Nat Mach Intell 6, 381–382 (2024). 

https://doi.org/10.1038/s42256-024-00828-4

利用AI探索先天-后天智能起源

认知科学中的一个经典问题是,学习是否需要先天的、特定领域的归纳偏见来解决视觉任务。最近的一项研究对机器学习系统进行了关于儿童第一人称视觉经验的训练,以表明视觉知识可以在没有对物体或空间的先天归纳偏见的情况下学习

几个世纪以来,科学家们一直在争论智力的起源。一个关键问题是学习机制的本质,从出生起,这种学习机制就产生了人类和动物强大的心智技能。先天主义者认为,智力是由先天的特定领域系统发展而来的,这些系统用于学习不同种类的事物,如物体、地点、数字和社会伙伴。经验主义者认为,智能是从一般领域系统发展而来,从经验中学习特定领域的知识

Orhan和Lake提出了一种严格的计算方法来解决先天-后天辩论,并描述视觉智能的核心学习算法。范式的变化通常是由其他领域的进步所刺激的。Orhan和Lake的研究展示了人工智能工具如何解决认知科学中的经典问题。有了模拟高维系统从高维感官数据中学习的建模工具,科学家现在可以测试先天主义者和经验主义者关于心智技能可学习性的主张。发展心理学和人工智能之间的这种协同作用将为构建智能起源的工作模型提供强大的基础。

25f98e8c5eb7fd39db59e6abafb74731.gif

大模型对齐、个性化大模型

6. Kirk, H.R., Vidgen, B., Röttger, P. et al. The benefits, risks and bounds of personalizing the alignment of large language models to individuals. Nat Mach Intell 6, 383–392 (2024). 

https://doi.org/10.1038/s42256-024-00820-y

大模型对齐、个性化大模型

大型语言模型(LLMs)会经历“对齐”过程,以便更好地反映人类的价值观或偏好,使其更安全或更有用。然而,对齐本质上是困难的,因为现在与LLMs互动的数亿人对语言和对话规范有不同的偏好,他们遵循不同的价值体系,持有多样化的政治信仰。通常,只有少数开发者或研究人员规定对齐规范,这冒着排除或不足代表各种群体的风险。个性化是LLM开发中的一个新领域,其中模型被定制以适应个人。原则上,这可以最小化文化霸权,增强实用性并扩大访问范围。然而,无限制的个性化带来了大规模画像、侵犯隐私、加强偏见和剥削弱势群体的风险。定义负责任和社会可接受的个性化的界限是一个充满规范性挑战的非平凡任务。本文探讨了“个性化对齐”,即LLMs适应用户特定数据,并强调了LLM生态系统向更高程度个性化的最新转变。我们的主要贡献通过个人和社会大众的风险和利益分类,探讨了个性化LLMs的潜在影响。我们最后讨论了一个关键的开放问题:个性化的适当界限是什么,由谁来决定?回答这个规范性问题使用户能够从个性化对齐中受益,同时防范对个人和社会的有害影响。

表1 个性化大型语言模型(LLMs)的利益和风险分类

f05e119f410ab0fd9eaa7670427d6fe5.png

1b972f1995d36c58604fc49f91ae0fee.png本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。393304d0529fdba579dd7996ef322bef.gif

收藏,分享、在看,给个三连击呗!
  • 16
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值