【前沿技术杂谈:人机交互 】将人机交互 (HITL) 集成到机器学习应用程序中是必要的,而不是选择。

本文探讨了如何在机器学习中融入人机交互(HITL),强调了其在处理不确定性和提升模型性能中的关键作用。HITL通过结合人类智慧与机器学习,提高数据质量、防止过拟合,并在决策过程中保持透明度。文章还提出了有效利用HITL的策略,包括人力资源部署和伦理决策框架的建立。
摘要由CSDN通过智能技术生成

在这里插入图片描述

来源 — 照片由 安迪·凯利 on Unsplash

@[TOC](【前沿技术杂谈:人机交互 】将人机交互 (HITL) 集成到机器学习应用程序中是必要的,而不是选择。)

Machine Learning 机器学习

将人在环 (HITL) 集成到机器学习中是必要的,而不是选择。这是为什么?

要在机器学习中集成人机交互 (HITL),首先要了解 HITL、其需求、优势和方法。

什么是人机交互 (HITL)?

人机交互 (HITL) 正在机器学习自动化架构中将人类输入及其反馈编织在一起。

它首先将人工标记/注释的数据集成到机器学习模型中,然后通过反馈周期来训练模型,以通过人类的持续支持产生所需的输出。

在这里插入图片描述

图片由作者提供

如果性能低于一定置信度,反馈会触发模型的改进,以便进行预测。

在实践中,总是希望事先设置模型可接受的置信度水平。

这意味着,如果“进来”的错误预测很少是可以的,那么阈值可以设置得稍微低一些,这反过来又需要更少的人为(手动)干预。

另一方面,如果需要高水平的准确预测,人为(手动)干预的程度就会增加。

简单地说,“人在回路中”(HITL) 方法结合了人类智能和机器智能的精华。

机器善于从庞大的数据集中做出明智的决策,而人则更善于在可用信息较少的情况下做出合理的决策,有时还能根据自己的经验和直觉做出决策,因此,设计必须同时包含机器的智能计算决策和人的正确/道德决策。

机器学习中的 “人机回路”(HITL)的设计方式允许双方(机器和人类)持续互动,并包括一个持续的反馈回路,使来自训练、参数调整和测试任务的反馈能够反馈到算法中,从而使算法变得更智能、更自信、更准确。

在这里插入图片描述

图片由作者提供

这对于自行选择接下来需要学习的内容并将这些数据发送给人类进行标记和训练的系统尤其有效。机器学习和改进的过程称为主动学习

主动学习是一种确保模型从人类创建的每个新的标记/注释数据点中学习有用的东西的方法,这些数据点是模型在前进过程中不断遇到的。

主动学习是机器学习模型最重要的方面之一,与人机交互 (HITL) 相结合可提供最佳结果。

几个好的例子是 –

  • 随着智能设备听到越来越多的语音信号和命令,它们会变得更加智能。
  • 通过观察人们针对哪个特定搜索词点击哪些网站,搜索引擎会变得更好。
  • 随着观察越来越多的人类驾驶员和乘客,自动驾驶汽车变得更加智能。

HITL 为机器学习应用程序提供什么好处?

  1. 很多时候数据是不完整且明确的。人类对原始数据进行注释/标记以提供有意义的上下文,以便机器学习模型可以学习产生所需的结果、识别模式并做出正确的决策。

  2. 人类检查模型是否过度拟合。他们向模型教授极端情况或意外情况。

  3. 人类评估算法是否过于自信或信心不足,以确定正确的决策。如果准确性较低,机器会经历一个主动学习周期,其中人类为机器提供反馈,以达到正确的结果并提高其可预测性。

  4. 它显着提高了透明度,因为应用程序不再显示为黑匣子,人类参与过程中的每一步。

  5. 它以最有效的方式结合了人类的判断,并将压力从构建“100%机器完美”算法转移到提供最大商业利益的最佳模型。这反过来又提供了更强大和有用的应用程序。

机器学习中应采用哪些 HITL 策略才能获得最大收益?

  1. 包括所有处理应用程序中涉及的数据的人员,包括收集、标记、培训数据和对数据进行质量控制的人员。

  2. 在流程的每个阶段战略性地部署人员,以改进和优化模型及其结果。

  3. 部署经过培训和管理的人力资源,以加快上市时间并减轻数据返工的负担。

  4. 考虑在生命周期的早期阶段(如果可能的话,在模型开发开始之前)导入资源,因为机器学习模型在很大程度上依赖于不断变化的数据,其性能可能比标准软件系统更快过时。

  5. 避免在整个生命周期内人员利用率低下,因为这会导致数据质量低下、成本上升和模型失效。

  6. 全自动化不应该是最终目标,因为有时只有通过人类(拥有适当知识和专业技能的人)和机器的合作与协调才能取得最佳效果。

  7. 自动化应在我们认为有用的自动化方面与人类参与仍有意义的任务之间取得适当平衡。走极端,即急于实现一切自动化或坚持什么都不自动化,永远不会实现双赢。相反,理想的解决方案往往存在于两者之间。

  8. 每当出现伦理决策问题时,例如,在没有明确对错答案的情况下,或由于决策的复杂性而存在机器失灵的危险时,应优先考虑增强人的权能。

  9. 为解决复杂的环境管理问题,应采用以人为主导的决策框架,并进行适当的风险评估。在任何情况下,都不应推翻人为检查点。

  10. 应该有人对 ML 和人工智能应用的决策结果负责,而这肯定不是机器所能做到的。必须由人来负责,因为哪怕是一个错误的转向,都会带来极大的风险。

科学家和研究人员认为的人机参与比例

在这里插入图片描述

图片由作者提供

尽管有大量不同的领域和组织在使用机器学习,但人机交互 (HITL) 方法尚未得到充分利用。它仍然是一个新领域,需要仔细考虑,以与所有机器学习应用程序集成。

但好消息是,大多数行业专家现在已经意识到它的价值,并准备将 HITL 纳入每个 ML 和 AI 应用中。

谢谢阅读 !!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

jcfszxc

赏我点铜板买喵粮吃吧!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值