首页 人工智能正文

在人与机器之间建立更好的信任

人工智能 2019-09-16 13:31:00

随着机器变得更加智能化,它们会嵌入生活的无数方面。在某些方面,他们几乎可以扮演人机团队中的正式成员。在这种情况下,与任何团队一样,信任是良好绩效的必要因素。

但人与机器之间的信任动态尚未得到充分了解。通过SUTD-MIT博士后研究员项目资助的两年项目,麻省理工学院与新加坡科技与设计大学(SUTD),博士后Xi Jessie Yang,麻省理工学院航空航天系助理教授Julie Shah和SUTD合作工程产品开发KatjaHölttä-Otto教授旨在发展该领域的更多知识。在她的团契期间,杨在SUTD担任了一年的博士后,现在正在麻省理工学院的第二年完成她的研究。她和她的导师希望他们的努力将有助于更好的用户界面设计和更好的人机团队绩效。

有些任务可以通过机器或机器的辅助而不仅仅是人类来更有效地完成。但机器可能会出错,特别是在不确定性和模糊性的情况下。因此,正确校准对机器的信任是良好的人机团队绩效的先决条件。

各种因素交叉在一起,以确定人类信任机器的程度,以及它们对给定任务的执行程度。这些因素包括机器的可靠性,人类的自信程度以及并发工作量(即人类负责同时执行的任务数量)。梳理任何一个因素的影响可能具有挑战性,但通过复杂的实验设计,Yang,Shah和Hölttä-Otto已经能够以更现实的方式处理该主题,处理机器的不完善并隔离各种因素。人机信任关系研究其影响。

在SUTD,Yang和Hölttä-Otto设计了一个实验,涉及一个人类参与者在自动决策辅助的帮助下执行记忆和识别任务。在实验中,参与者记住了一系列图像,然后在类似图像池中识别它们。决策辅助工具为图像选择提供了建议,对某些人来说非常可靠,对其他人则不那么可靠。结果显示,参与者倾向于使用高度可靠的辅助工具并推翻高度不可靠的辅助工具。随着人们使用决策辅助获得更多经验,信任可靠性校准也得到了改善。

在麻省理工学院,Yang和Shah探讨了界面设计如何促进信任可靠性校准。Yang和Shah特别感兴趣的是可能性警报显示的潜在好处。与仅指示“威胁”或“无威胁”的传统二进制警报相反,可能性警报提供关于警报事件的置信水平和紧急性的附加信息。Yang和Shah认为,可能性警报将有助于减轻“哭狼”效应,这种现象在高风险行业中常见。在这些行业中,触发警报的阈值通常设置得非常低,以便捕获每个关键事件。然而,低阈值不可避免地导致错误警报,这导致人类用户失去对警报系统的信任并最终损害任务性能。

在目前正在进行的另一项实验中,Yang和Shah模拟了一个多任务场景,其中参与者充当士兵来执行搜索和检测任务。他们必须保持四架无人驾驶飞行器(UAV)的水平飞行,同时检测从无人机发回的照片流中的潜在威胁。二进制警报或可能性警报可帮助参与者完成其任务。后者可能会减轻“哭狼”效应,并提高参与者的注意力分配,并提高人机团队的表现。

最终,这项研究可以帮助实现跨越许多领域的机器人和人工智能开发,从军事应用,如实验模拟,医疗诊断到机场安全。

“缺乏信任往往被认为是更广泛使用AI和自治系统的关键障碍之一,”Shah说。“这些研究表明,增加用户对系统的信任并不是正确的目标。相反,我们需要新的方法来帮助人们适当地校准他们对系统的信任,特别是考虑到这些系统总是不完美的。”

杨将于今年7月在第7届应用人因和人体工程学国际会议上展示她的研究成果,以及9月份人类因素和人体工程学学会第60届年会。

SUTD-MIT博士后研究员计划只是麻省理工学院和SUTD合作的一个方面。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请 第一时间联系我们修改或删除,多谢。