trusted区域_用于Python的IBM Trusted AI工具包与AI偏差作斗争

IBM发布了三个基于Python的开源工具包,旨在减少机器学习模型中的偏差并提高AI系统的可解释性和安全性。这些工具包包括AIExplainability360、AIFairness360和AdversarialRobustnessToolbox,分别用于模型解释、消除偏见和抵御对抗性攻击。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

trusted区域

IBM的研究人员正在开发各种方法,以减少机器学习模型中的偏差并识别训练AI的数据集中的偏差,目的是避免在AI驱动的应用程序的行为和决策中受到歧视。

作为名为Trusted AI project的研究的结果,该公司发布了三个基于Python的开源工具包。 本月早些时候发布的最新工具包AI Explainability 360包括可用于解释机器学习模型所做出决策的算法。

[在InfoWorld上深入学习机器学习最好的机器学习和深度学习库 | 机器学习和深度学习的最佳开源软件 通过InfoWorld大数据和分析报告时事通讯深入分析和大数据。 ]

可以从GitHub访问三个用于Python的IBM Trusted AI工具包。 有关这三个软件包的一些信息:

  • AI Explainability 360(又称AIX360)提供的算法涵盖了机器学习模型和代理可解释性指标的不同维度。 可扩展的工具包可以帮助用户了解这些模型如何在AI应用程序生命周期中通过各种方式预测标签。 算法研究从实验室转化为金融,人力资本管理,教育和医疗保健等领域的实际实践。 AIX360工具箱于2019年8月8日推出,可以从此链接下载 。 您可以通过此链接访问API文档。
  • AI Fairness 360或AIF360提供了指标来检查数据集和机器学习模型中是否存在不必要的偏差,并包含减轻偏差的算法。 借助该工具包,IBM旨在防止开发可能会给某些特权组带来系统优势的机器学习模型。 训练数据中的偏见,由于标签的偏见,欠采样或过采样,导致模型的决策带有偏见。 AIF360于2018年9月推出,包括九种算法,可以以标准方式调用。 AIF360包含有关信用评分,预测医疗费用以及按性别对面部图像进行分类的教程。 可以在此链接中找到AIF360代码。 可通过此链接访问文档。
  • Adversarial Robustness Toolbox是一个Python库,支持开发人员和研究人员防御DNN(深度神经网络)免受对抗性攻击,从而使AI系统更加安全可靠。 DNN容易受到对抗性示例的攻击,这些示例是故意修改的输入(例如图像),以使DNN产生所需的响应。 该工具箱可用于构建防御技术和部署实际防御。 捍卫DNN的方法涉及测量模型的健壮性和模型强化,这些方法包括预处理DNN输入以使用对抗性样本来增强训练数据,并利用运行时检测方法来标记可能被对手篡改的任何输入。 由IBM Research Ireland于2018年4月发布的Adversarial Robustness Toolbox可在此链接上找到。

展望未来,IBM还正在考虑发布用于AI模型问责制的工具。 目的是在模型的整个生命周期中,将保持来源和数据跟踪,因此可以信任模型。

翻译自: https://www.infoworld.com/article/3434009/ibm-trusted-ai-toolkits-for-python-combat-ai-bias.html

trusted区域

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值