史元春老师组20-21年论文笔记

Chen Liang, Chun Yu, Xiaoying Wei, Xuhai Xu, Yongquan Hu, Yuntao Wang, Yuanchun Shi:
Auth+Track: Enabling Authentication Free Interaction on Smartphone by Continuous User Tracking. CHI 2021: 2:1-2:16

手机身份认证繁琐重复。在手机上安装全景摄像头,提取关键特征(如头部位置、关键点联系,手肘连接、状态等),track用户移动,包括可以与时空的联系,比如在道路上、咖啡馆、实验室等,从而提供身份验证。

Abstract: 我们提出Auth+Track,这是一种新的身份验证模型,旨在减少日常智能手机使用中的冗余身份验证。通过稀疏身份验证和对用户状态的连续跟踪,Auth+Track消除了分段会话之间的“间隙”身份验证,并启用了“用户在附近时无需身份验证”。为了实例化Auth+Track模型,我们提出了PanoTrack,一个集成了人体和近场手信息的用户跟踪原型。我们在手机顶部安装了一个鱼眼摄像头,可以实现全景视觉,既可以捕捉用户的身体,也可以在屏幕上抓拍手。基于捕获到的视频流,我们开发了一种算法来提取1)用于用户跟踪的特征,包括身体关键点及其时空关联、近场手的状态,以及2)用于用户身份分配的特征。用户研究结果验证了PanoTrack的可行性,证明Auth+Track不仅提高了认证效率,而且增强了用户体验,具有更好的可用性。

Yue Qin, Chun Yu, Zhaoheng Li, Mingyuan Zhong, Yukang Yan, Yuanchun Shi:
ProxiMic: Convenient Voice Activation via Close-to-Mic Speech Detected by a Single Microphone. CHI 2021: 8:1-8:12

无唤醒技术(例如,提高通话) 对于改善语音输入体验非常重要。我们提出ProxiMic,一种仅使用一个麦克风的近麦克风(5厘米以内)语音传感技术。使用ProxiMic,用户将嵌入麦克风的设备放在嘴边,直接与设备通话,而无需使用唤醒短语或按下按钮。为了检测接近麦克风的语音,我们使用了当用户说话并向麦克风吹气时观察到的弹出噪声的特征。声音输入首先通过一个低通自适应阈值滤波器,然后由一个CNN进行分析,CNN可以检测到细微的接近麦克风的特征(主要是pop噪声)。我们的两阶段算法可以达到94.1%的激活召回率,每用户每周12.3次错误接受(FAWU),内存大小为68kb,在智能手机上可以以352fps的速度运行。用户研究表明,ProxiMic是高效、友好、实用的。

Yueting Weng, Chun Yu, Yingtian Shi, Yuhang Zhao, Yukang Yan, Yuanchun Shi:
FaceSight: Enabling Hand-to-Face Gesture Interaction on AR Glasses with a Downward-Facing Camera Vision. CHI 2021: 10:1-10:14

提出了一种基于计算机视觉的AR眼镜手-面手势传感技术FaceSight。FaceSight将红外摄像头固定在AR眼镜的桥上,以提供额外的面部和手部行为感知能力。我们获得了21个手势,并通过5个AR应用展示了潜在的交互优势。设计并实现了一个分割人脸区域、检测手-脸接触(f1得分98.36%)和训练卷积神经网络(CNN)模型对手势进行分类的算法流水线。输入特征包括手势识别、鼻子变形估计和指尖连续运动。通过10个用户的数据验证,该算法对所有手势的分类准确率达到83.06%。由于紧凑的外形和丰富的手势,我们认为FaceSight是未来增强AR眼镜输入能力的实用解决方案。

Guanhong Liu, Tianyu Yu, Chun Yu, Haiqing Xu, Shuchang Xu, Ciyuan Yang, Feng Wang, Haipeng Mi, Yuanchun Shi: Tactile Compass: Enabling Visually Impaired People to Follow a Path with Continuous Directional Feedback. CHI 2021: 28:1-28:13

准确和有效的方向反馈是至关重要的电子旅行辅助设备,引导视力受损的人通过路径行走。本文介绍了一种手持式触觉罗盘,它通过指向计划方向的可旋转指针提供连续的方向反馈。我们进行了两项实验室研究来评估反馈解决方案的有效性。结果显示,使用触觉罗盘,被试可以在原地到达目标方向,平均偏差为3.03° 可沿60厘米宽的路径平稳航行,平均偏离中心线12.1厘米。主观反馈显示触觉罗盘易于学习和使用。(类似地图导航设计?)

Zihan Wu, Chun Yu, Xuhai Xu, Tong Wei, Tianyuan Zou, Ruolin Wang, Yuanchun Shi:
LightWrite: Teach Handwriting to The Visually Impaired with A Smartphone. CHI 2021: 32:1-32:15

由于缺乏视觉反馈,学习写作对盲人和低视力者来说是一项挑战。尽管数字技术突飞猛进,手写仍然是日常生活中不可或缺的一部分。尽管设计用于教授BLV写作的工具已经存在,但许多都很昂贵,需要有远见的教师的帮助。我们建议LightWrite是一款低成本、易于访问的智能手机应用程序,它使用基于语音的描述性说明和反馈,教BLV用户以专门设计的字体书写英文小写字母和阿拉伯数字。一项两阶段的研究显示,LightWrite可以成功地教会用户在平均1.09分钟内学会手写字符。在最初的训练和为期5天的20分钟的日常练习之后,参与者能够在视力评定者能识别的26个字母中平均写出19.9个。(语音告诉你比划,然后反馈给你写得如何)

Ru Zhang, Yuanchun Shi, Björn W. Schuller, Elisabeth André, Sharon L. Oviatt, Aaron Quigley, Nicolai Marquardt, Ilhan Aslan, Ran Ju: User Experience for Multi-Device Ecosystems: Challenges and Opportunities. CHI Extended Abstracts 2021: 111:1-111:5

智能设备已经渗透到人类日常生活的方方面面。虽然单设备用户体验产品相对成功,但跨设备交互的体验仍然远远不能令人满意,可能会成为一个挫折的来源。不一致的UI样式、不明确的协调、不同的保真度、成对交互、缺乏理解意图、有限的数据共享和安全性,以及其他问题通常会降低多设备生态系统中的体验。重新设计用户体验(UX),为多设备生态系统量身定做,以增强用户体验,结果是具有挑战性的,但同时也提供了许多新的机会。本次研讨会汇集了具有不同背景的研究人员、实践者和开发人员,包括来自计算设计、情感计算和多模式交互等领域的研究人员、实践者和开发人员,就分布式场景的用户体验交换意见、分享想法,并探索未来的发展方向,特别是对于那些异构的跨设备生态系统。主题包括但不限于分布式用户体验设计、可访问性、跨设备人机交互、分布式场景中的人为因素、以用户为中心的界面和多设备生态系统

Dakuo Wang, Pattie Maes, Xiangshi Ren, Ben Shneiderman, Yuanchun Shi, Qianying Wang:
Designing AI to Work WITH or FOR People? CHI Extended Abstracts 2021: 154:1-154:5

人工智能是指机器学习算法和建立在这些算法之上的自动化应用。人机交互(HCI)研究人员研究了这些人工智能应用,并提出了各种以人为中心的人工智能(HCAI)原则,以获得可解释、安全、可靠和值得信赖的交互体验。虽然一些设计师认为计算机应该是超级工具和主动装置,但其他人认为这些最新的人工智能系统可以是合作者。随着今天人工智能算法的突破,在这个小组中,我们问是否超级工具或协作隐喻最好的支持工作和发挥?我们如何设计人工智能系统才能更好地与人合作或为人服务?到那里需要什么?这个小组将汇集具有不同背景的小组成员,通过讨论他们对人工智能交互设计的未来的共同或分歧的观点来吸引观众。

与非人工智能计算机系统相比,人工智能系统被认为是什么?
•我们是否已经进入了人工智能协作的计算时代?
•与人工智能的合作与与与人类伙伴的合作是相同的还是不同的?
•模态是否存在差异(例如,物理机器人、文本聊天机器人、语音对话等)。如果是,怎么做?
•AI系统什么是合适的角色:领导者?主持人?参与者?顾问?这些角色如何影响人类群体互动的动力?
•人工智能是否需要“协作意识”[6]来了解人类的情感、习俗和心理模型?
•由于信任对协作至关重要(例如[7]),人工智能如何影响混合人工智能团队中的信任?
•AI合作者有哪些道德考量?
•人工智能是否应该被训练为隐瞒信息、外交手腕、在社会利益需要时具有欺骗性,或者完全透明[8]?
•故障责任如何控制人与机器之间的协作?
然后,我们将提出设计和研究问题,例如:
•当今人工智能系统与人类协同工作的好例子和坏例子是什么?
•HCI和CSCW中的哪些理论可以为人工智能系统设计或以人为中心的人工智能研究提供启示?
•哪些隐喻适合描述人工智能?在团队角色方面应该如何描述代理?
•在现实世界中,人工智能的当前开发和用户测试实践是什么?

Xiaozhu Hu, Jiting Wang, Weiwei Gao, Chun Yu, Yuanchun Shi: FootUI: Assisting People with Upper Body Motor Impairments to Use Smartphones with Foot Gestures on the Bed. CHI Extended Abstracts 2021: 436:1-436:7

通过在摄像头采集脚趾移动操纵手机屏幕以辅助上肢受损用户

Xuhai Xu, Jiahao Li, Tianyi Yuan, Liang He, Xin Liu, Yukang Yan, Yuntao Wang, Yuanchun Shi, Jennifer Mankoff, Anind K. Dey: HulaMove: Using Commodity IMU for Waist Interaction. CHI 2021: 503:1-503:16

通过腰部动作来操纵手机屏幕,应用场景如使用做饭APP时,手不方便触摸屏幕,以及一些VR游戏等

Yuntao Wang, Ao Yu, Xin Yi, Yuanwei Zhang, Ishan Chatterjee, Shwetak N. Patel, Yuanchun Shi:
Facilitating Text Entry on Smartphones with QWERTY Keyboard for Users with Parkinson’s Disease. CHI 2021: 735:1-735:12

QWERTY是智能手机的主要文本输入键盘配置。然而,帕金森病患者经常经历的由手震颤引起的插入和替换错误会严重影响打字效率和用户体验。在这篇论文中,我们调查了帕金森氏症用户在智能手机上的打字行为。特别是,我们识别并比较了有和没有帕金森氏症症状的用户产生的类型特征。在此基础上,提出了一种弹性概率输入预测模型。该模型综合了空间和时间特征,推广了经典的统计译码算法,在保持直接物理解释的同时,纠正了插入、替换和遗漏错误。用户研究结果证实,该算法优于基线技术:用户的打字速度达到22.8wpm,错误率显著降低,用户的感知性能和偏好更高。我们的结论是,我们的方法可以有效地改善帕金森病用户在智能手机上的文本输入体验。

Yaohua Bu, Tianyi Ma, Weijun Li, Hang Zhou, Jia Jia, Shengqi Chen, Kaiyuan Xu, Dachuan Shi, Haozhe Wu, Zhihan Yang, Kun Li, Zhiyong Wu, Yuanchun Shi, Xiaobo Lu, Ziwei Liu:
PTeacher: a Computer-Aided Personalized Pronunciation Training System with Exaggerated Audio-Visual Corrective Feedback. CHI 2021: 676:1-676:14

第二语言(L2)英语学习者经常发现,由于缺乏表达性和个性化的纠正性反馈,很难提高他们的发音。在本文中,我们提出了发音教师(PTeacher),一个计算机辅助发音训练(CAPT)系统,提供个性化的夸张的视听纠正错误的反馈。虽然夸张反馈的有效性已经被证明,但在与个别学习者互动时,如何定义恰当的夸张程度仍然不清楚。为了填补这一空白,我们采访了100名二语英语学习者和22名专业英语教师,了解他们的需求和经验。提出了三个关键指标,供学习者和教师在视听模式中识别最佳夸张程度。此外,我们还结合了个性化的动态反馈机制,以提高学习者的英语水平。在此基础上,我们设计了一个全面的互动式发音训练课程,帮助二语学习者以一种更易感知、理解和辨别的方式纠正错误发音。大量的用户研究表明,我们的系统大大提高了学习者的学习效率。

Yiqin Lu, Bingjian Huang, Chun Yu, Guahong Liu, Yuanchun Shi: Designing and Evaluating Hand-to-Hand Gestures with Dual Commodity Wrist-Worn Devices. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(1): 20:1-20:27 (2020)

通过在两个手都放置腕带,识别手对手作用的触碰姿势,比如抱拳等等。

Xuhai Xu, Chun Yu, Yuntao Wang, Yuanchun Shi: Recognizing Unintentional Touch on Interactive Tabletop. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(1): 33:1-33:24 (2020)

交互式设备中区分有意识交互和无意识交互,减少无意识交互的干扰。如在大型交互式显示屏时,用单手滑动时,另一只手若也放在屏幕上,则会形成干扰,但不放在屏幕上可能会缺乏支撑。

多点触控交互式桌面的设计是为了在熟悉的物理桌面表面体现数字计算机的优点。然而,当前多点触控桌面的特点是能够检测所有形式的触控并做出反应,包括无意的触控,这妨碍了用户对其进行自然操作。在我们的研究中,我们利用注视方向、头部方向和屏幕接触数据来识别和过滤无意的触摸,这样用户就可以充分利用交互式桌面的物理特性,例如,在交互过程中,手可以休息,也可以靠在桌面上。为了实现这一点,我们首先进行了一项用户研究,以确定在数字桌面和物理桌面上完成常规任务之间的行为模式差异(凝视、头部和触摸)。然后,我们将我们的发现归纳为五种时空特征,并训练一个机器学习模型来识别无意接触,F1得分为91.3%,比最先进的模型高出4.3%。最后在一个实时滤波系统中对算法进行了评价。用户研究表明,该算法稳定,改进后的桌面有效地屏蔽了无意的触摸,提供了更加轻松自然的用户体验。通过将他们的注视和头部行为与他们的触摸行为联系起来,我们的工作揭示了未来桌面技术改善用户输入意图理解的可能性。

Yukang Yan, Yingtian Shi, Chun Yu, Yuanchun Shi: HeadCross: Exploring Head-Based Crossing Selection on Head-Mounted Displays. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(1): 35:1-35:22 (2020)

VR和AR头戴式显示器(HMD)上解放双手握柄,利用头戴式设备操控,以减少在双手繁忙时的不适用性。

Guanhong Liu, Yizheng Gu, Yiwen Yin, Chun Yu, Yuntao Wang, Haipeng Mi, Yuanchun Shi:
Keep the Phone in Your Pocket: Enabling Smartphone Operation with an IMU Ring for Visually Impaired People. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(2): 58:1-58:23 (2020)

此前的研究表明,视障用户在智能手机互动中面临着一系列独特的痛点,包括定位和从口袋中取出手机、手持手杖时双手互动以及在公共场合保持个人数据隐私。在本文中,我们提出了一个基于环的输入交互,使在口袋里的智能手机操作。通过在食指上戴上带有惯性测量单元的戒指,用户可以在任何表面(如桌子、大腿)上使用微妙的单手手势进行手势,并通过耳机接收听觉反馈。我们进行了参与性研究,以获得一套通用的命令和相应的手势。我们随后训练了一个支持向量机模型来识别这些手势,并在15个分类中获得了95.5%的平均准确率。评估结果表明,我们的铃声交互比一些基准电话交互更有效,而且使用起来简单、私密、有趣。(蛮有意思的,考虑到视障用户的隐私性)

Shuchang Xu, Ciyuan Yang, Wenhao Ge, Chun Yu, Yuanchun Shi:
Virtual Paving: Rendering a Smooth Path for People with Visual Impairment through Vibrotactile and Audio Feedback. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(3): 99:1-99:25 (2020)

触觉铺路是为视障人士设计的公共工程,旨在通过提供脚下的触觉线索来指示特定的路径。但是,它们面临许多限制,如安装错误、障碍、性能下降和覆盖范围有限。为了解决这些问题,我们提出了虚拟铺路,旨在通过多模式反馈为视障人士提供一条平滑的路径,从而帮助他们进行独立导航。这项工作假设已经规划了一条路径以避免障碍物,并将重点放在反馈设计上,以引导用户安全、顺利、高效地沿着路径行进。首先,我们在调查视障人士目前使用触觉铺面的做法和问题的基础上,提炼出虚拟铺面的设计准则。接下来,我们开发了一个多模式的解决方案,通过共同设计和评估视障用户。该解决方案包括(1)肩部和腰部的振动旋转反馈,以提供易于感知的方向提示;(2)音频反馈,以描述用户前方的道路状况。最后,我们通过用户测试对所提出的解决方案进行了评估。在设计的反馈指导下,16名视力受损的参与者成功地完成了128项试验中的127项,基本路径宽2.1米,包括直线和曲线路径。主观反馈表明,我们的虚拟铺路渲染解决方案易于用户学习,并使他们能够顺利行走。讨论了虚拟铺路技术在实际环境中支持自主导航的可行性和潜在的局限性。(其实相当于一条虚拟生成的盲道)

Yizheng Gu, Chun Yu, Zhipeng Li, Zhaoheng Li, Xiaoying Wei, Yuanchun Shi: QwertyRing: Text Entry on Physical Surfaces Using a Ring. Proc. ACM Interact. Mob. Wearable Ubiquitous Technol. 4(4): 128:1-128:29 (2020)

有点类似上述盲人无固定接触物实现操控的工作,也是带个手环,在任意物理平面上实现文本输入、长按、切换等操作

Yuntao Wang, Zichao (Tyson) Chen, Hanchuan Li, Zhengyi Cao, Huiyi Luo, Tengxiang Zhang, Ke Ou, John Raiti, Chun Yu, Shwetak N. Patel, Yuanchun Shi: MoveVR: Enabling Multiform Force Feedback in Virtual Reality using Household Cleaning Robot. CHI 2020: 1-12

触觉反馈可以显著提高虚拟现实系统的真实感和沉浸感。在本文中,我们提出了MoveVR,一种技术,使现实,多种形式的力量反馈在虚拟现实中利用普通的清洁机器人。MoveVR可以产生张力、阻力、冲击和材料刚度力反馈,具有多层次的力强度和方向。这是通过改变机器人的移动速度、旋转、位置以及携带的代理来实现的。通过交互式虚拟现实游戏验证了MoveVR的可行性和有效性。在我们的定量和定性评估研究中,参与者发现MoveVR与商用触觉解决方案(如振动触觉系统)相比,提供了更真实和愉快的用户体验。(通过扫地机器人的移动等加强VR游戏的触感体验)

Jie Ren, Yueting Weng, Chengchi Zhou, Chun Yu, Yuanchun Shi: Understanding Window Management Interactions in AR Headset + Smartphone Interface. CHI Extended Abstracts 2020: 1-8

我们设想未来将 AR 耳机和智能手机结合使用,可以同时提供更广泛的显示和精确的触摸输入。 这样,这两个设备的输入/输出接口可以融合,重新定义用户如何在两个设备上无缝管理应用程序窗口。 在这项工作中,我们对 10 人进行了形成性访谈,以了解用户更喜欢如何在融合界面上管理多个窗口。 我们的采访强调了将智能手机用作窗口管理界面的愿望影响了用户对窗口管理操作的交互实践。 本文报告了他们将智能手机用作窗口管理器的愿望是如何体现的。

Xuhai Xu, Haitian Shi, Xin Yi, Wenjia Liu, Yukang Yan, Yuanchun Shi, Alex Mariakakis, Jennifer Mankoff, Anind K. Dey: EarBuddy: Enabling On-Face Interaction via Wireless Earbuds. CHI 2020: 1-14

过去关于身体交互的研究通常需要定制传感器,这限制了它们的可扩展性和通用性。我们提出了 EarBuddy,这是一种实时系统,它利用商用无线耳塞中的麦克风来检测面部和耳朵附近的敲击和滑动手势。我们开发了一个设计空间来生成 27 个有效手势,并进行了一项用户研究 (N=16),以选择最适合人类偏好和麦克风可检测性的 8 个手势。我们收集了关于这八个手势 (N=20) 的数据集,并训练了用于手势检测和分类的深度学习模型。我们优化的分类器达到了 95.3% 的准确率。最后,我们进行了一项用户研究 (N=12) 以评估 EarBuddy 的可用性。我们的结果表明,EarBuddy 可以促进新颖的交互,并且用户对系统感觉非常积极。 EarBuddy 提供了一种新的免视、社会可接受的输入法,与商用无线耳塞兼容,并具有可扩展性和通用性的潜力 (通过面部交互实现手机音乐播放等控制)

Xin Yi, Chen Wang, Xiaojun Bi, Yuanchun Shi:
PalmBoard: Leveraging Implicit Touch Pressure in Statistical Decoding for Indirect Text Entry. CHI 2020: 1-13

通过面部表情变化(如皱眉抬眉等)及时发现用户与smart speaker之间对话中的误解,而非手动或者通过语句干扰制止。

Yukang Yan, Chun Yu, Wengrui Zheng, Ruining Tang, Xuhai Xu, Yuanchun Shi: FrownOnError: Interrupting Responses from Smart Speakers by Facial Expressions. CHI 2020: 1-14

我们研究了如何结合隐式触摸压力,在打字过程中施加到触摸表面的手指压力,以通过统计解码提高文本输入性能。我们专注于间接界面上的单手触摸输入作为示例场景。我们首先在压敏触摸板上收集打字数据,并分析用户的打字行为,例如触摸点分布、按键到手指的映射和压力图像。我们的调查揭示了不同按键的不同压力模式。基于这些发现,我们进行了一系列模拟以迭代优化统计解码算法。我们的调查导致了将压力图像数据纳入解码的马尔可夫-贝叶斯解码器。与朴素贝叶斯解码器相比,它将 top-1 的准确率从 53% 提高到 74%。然后我们实现了 PalmBoard,这是一种文本输入方法,它实现了马尔可夫-贝叶斯解码器并有效地支持间接界面上的单手触摸输入。一项用户研究表明,参与者的平均速度为 32.8 WPM,错误率为 0.6%。专业打字员可以通过 30 分钟的练习达到 40.2 WPM。总体而言,我们的调查表明,结合隐式触摸压力可有效改善文本输入解码。

Haozhe Wu, Jia Jia, Lingxi Xie, Guojun Qi, Yuanchun Shi, Qi Tian: Cross-VAE: Towards Disentangling Expression from Identity For Human Faces. ICASSP 2020: 4087-4091

面部表情和身份是两个独立的、相互交织的组成部分,用于表示一张脸。对于人脸表情识别,身份通过提供复杂但不相关的信息,可以污染训练过程。本文提出了一种清晰的、不区分的特征,并将它们作为恒等式的不变量,用于表情识别。然而,这种分离通常需要在一个大型数据集上同时注释表达式和标识,而该注释通常不可用。我们的解决方案是将条件VAE扩展到一个交叉版本Cross VAE,该版本可以使用部分标记的数据将表达式与标识分离。我们强调了我们交叉VAE的以下新特征:(1)基于两个潜在表示的分布是正交的独立假设。这确保了编码的表示被分离和表达(2) 它利用对称训练程序,其中每个编码器的输出作为另一个编码器的条件。因此,可以联合使用两个部分标记集。大量实验表明,该方法能够对人脸表情进行表达和分离特征编码。与基线方法相比,模型的精度平均提高了3.56%。

Yiqin Lu, Chun Yu, Yuanchun Shi: Investigating Bubble Mechanism for Ray-Casting to Improve 3D Target Acquisition in Virtual Reality. VR 2020: 35-43

VR 映射的相关工作

数据越多,AI越智能?我们一直以来都想当然了

做决策的过程不应该是对数据的客观分析,而是利益相关者之间针对风险和优先级的容忍度做出的积极协商。数据没有用于提供洞察力,而是用作了保护利益相关者免受影响的盾牌,完美的信息往往是通过增加噪声水平而降低了决策质量。

改进团队决策的最佳途径不是获取更多数据,而是改善利益相关者之间的沟通。但是人们真的需要花费数十亿美元来清洗数据或增加数据量才能从人工智能中获益吗

当前,人们评价数据质量的方式具有误导性。「干净(clean)」的数据似乎就是一种准确、无偏见、可复用的数据。但实际上,干净与准确不同,准确与可操作不同。数据存在这三个方面的问题就可能严重影响人工智能模型的性能,干扰其结果的质量。数据中可能存在的问题有很多种,有些比较明显,例如数据不正确、已损坏或数据格式不标准。有些问题则更加微妙,例如数据是在特定环境下获取的,然后被不恰当地复用;对于模型来说数据处于错误的粒度级别;数据没有标准化,导致相同的事实以不同的方式表示或描述。

「反脆弱」是指 AI 系统不仅可以在遭遇故障后恢复,而且在经历过故障后会变得更强大、更有效。基于实际改善决策的因素构建 AI 系统将为反脆弱人工智能创造机会。现有的认知科学研究表明:良好的决策是主动阐明假设、构建假设检验以验证假设、以及在利益相关者之间建立清晰的沟通渠道的产物。

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值