欢迎来到斯坦福青岛研究院!

国际视角|我们能信任人工智能吗? 斯坦福国际研究院:设计激发信任的智能系统

作者:qdsitanfu   时间:2020-10-29
目前,我们正在经历一场由人工智能(AI)发展引领的技术大变革。虽然我们每天都在信任技术,但随着人工智能的发展,我们开始接受机器的推荐。因此,我们感知到的风险,无论是真实的还是想象的,提出了新的问题,在我们能够信任这些系统之前,必须回答这些问题。系统是否和我有同样的价值?它是如何做决定的?我是否安全?

 

需要注意的是,一个值得信任的系统--可靠、安全和道德--并不意味着它将被用户信任。高调的失误和失败让人工智能受到关注。Uber的自主汽车事故、Northpoint的种族主义犯罪预测以及Facebook和谷歌无处不在的 "回音室 "只是几个例子。随着人工智能能力和容量的增长,我们创建安全、可靠和符合道德的系统,让人们感到舒适使用的责任也在增加。为此,我们提出了一个问题。"我们如何设计能够激发信任的智能系统?"

 

国际视角|我们能信任人工智能吗? 斯坦福国际研究院:设计激发信任的智能系统(图1)

专家们已经就设计值得信赖的系统的必要性与总体设计原则发表了意见(例如,谷歌的人工智能原则);然而,很少有人尝试开发专门在用户中建立信任的方法。正如苹果公司将工业设计的原则与交互设计进行了延伸和结合,以创造出更好的数字产品一样,我们提出了以用户为中心的设计理念的延伸,明确解决人类与智能系统之间的信任关系。

 

"为信任而设计 "是一套原则,开始编纂流程和方法,以解决我们作为设计师和技术专家的责任,将信任纳入我们的流程。我们已经将我们的学习成果提炼为三个总体原则,其中有一个共同的主题:始终从用户的角度出发来处理解决方案。


SRI将通过一个三部分的系列,更深入地研究这里提出的每一个信任设计原则。

 

国际视角|我们能信任人工智能吗? 斯坦福国际研究院:设计激发信任的智能系统(图2)

原则1 

用户的期望和感知到的风险驱动信任需求。

信任是一种情感的、社会的契约,建立在用户的心理模型上,反映了用户对风险的期望和认知。因此,我们不仅要设计出值得信赖的系统,还要帮助用户实现其优点。简单地说,如果我们没有与受众的期望和感知的风险保持一致,无论系统有多有用,我们都只会建立一个没有人觉得使用起来舒服的东西。


原则2 

信任是一种动态关系。

它是暂时给予的,然后经过时间的检验。

管理期望发生在整个产品体验中。考虑建立信任的各个阶段:最初的推销以吸引客户,入职,学习阶段(对双方来说)和持续的参与过程,在这个过程中,产品必须继续提供引人注目的价值,以保持 "粘性"。


在这些阶段中,透明和清晰的沟通是建立信任的基础要素。清晰地沟通和教育人们了解你的系统行为和能力,不仅有助于消除或确认他们的心智模式,还能帮助他们理解和欣赏底层技术的局限性、权衡和最佳实践。


原则3 

在建立信任时,动机比演示或解释更有力。

人工智能的一个诱人承诺是它能够解决一些大问题,否则可能是难以解决的问题,然而很多人都会被潜在的陷阱或沿途的不祥传闻所困扰。尽早介绍公司的使命,并在用户的整个体验过程中忠于这个使命,是建立更牢固的信任基础的一种方式,实际上,也为系统争取了时间来收集更多的数据以提高性能。


一旦你让用户 "站在你这边",举证的负担和对啰嗦的互动的需求就会减少。举个例子。虽然自动驾驶汽车仍然面临着技术和社会的挑战,但总有一天,它们会让我们的道路更加安全,并为身体受损的人提供行动自由。我们不能忘记分享更大的画面,教育我们的用户了解人工智能的真正潜力。当人们了解使命并觉得自己正在为更大的利益做出贡献时,他们会更加积极和信任。


国际视角|我们能信任人工智能吗? 斯坦福国际研究院:设计激发信任的智能系统(图3)


国际视角|我们能信任人工智能吗? 斯坦福国际研究院:设计激发信任的智能系统(图2)

随着机器的能力不断向综合和创造性发展,我们越来越有责任考虑使用它们的人的感受、期望和看法。只有当我们将 "信任设计 "的方法融入到用户研究、用户建模和产品管理中,这种情况才能发生。

 

我们希望这里介绍的以用户为中心、为信任而设计的原则,以及从这些原则中产生的设计模式,即使在技术发展的过程中也能保持相关性。让我们努力提高对人机交互中人的一面的认识--并掌握这些原则--以建立智能系统,更好地管理人的期望、感知和恐惧,最终获得他或她的信任。


|SRI Manish Kothari与Paul Chang合著