信任不是答案:重新思考人机交互的伦理工程
2025-09-23 01:04

信任不是答案:重新思考人机交互的伦理工程

  

  algorithm

  在他的文章《信任不是美德:为什么我们不应该信任》中,弗吉尼亚大学系统和信息工程副教授马修·l·博尔顿(Matthew L. Bolton)对强调在人机交互中培养信任提出了尖锐的质疑。他特别关注使用人工智能、机器学习和自动化的系统。

  这篇文章发表在《设计中的人体工程学:人因应用季刊》上。

  博尔顿认为,虽然信任通常被视为采用新技术的必要条件,但这是一个有问题且不精确的概念。信任很难定义,高度情境化,并与信心和感知风险等相关概念混为一谈,因此作为衡量人类行为的标准,它既不是选择性的,也不是诊断性的。

  博尔顿认为,把重点放在建立对技术的信任上,实际上可能会破坏良好的人为因素工程。工程师不应该把追求信任作为目标,而应该把重点放在系统可靠性、透明性和可用性的客观度量上——这些元素直接影响人类的体验和性能。

  博尔顿断言,信任本质上不是人道主义的,可以被操纵来剥夺用户的权利,减少而不是增强自主权。这种操纵通常服务于大型组织的利益,通过鼓励对其技术的盲目信任来寻求绕过对可靠性的需求。

  “信任研究的核心存在一个矛盾,”博尔顿说。“我们将人类纳入系统,因为他们带来了经验、专业知识、本能和创造力,从而提高了性能,使系统具有弹性……我们依靠他们来决定何时、为什么以及如何信任一个系统。”如果工程师操纵人们按照他们(或其他人)的意愿行事,我们就失去了人工操作员的好处。”

  最后,博尔顿呼吁从以信任为中心的研究转向更具体、更合乎道德的系统设计方法。

  他强调,工程师应该优先开发技术,为用户提供透明、可靠和以人为本的设计,而不是依靠信任作为采用技术的理由。他认为,这种方法将导致更安全、更合乎道德、更有效的人机交互。

  更多信息:Matthew L. Bolton,信任不是美德:为什么我们不应该信任信任,设计中的人体工程学:人因应用季刊(2022)。DOI: 10.1177/10648046221130171引文:信任不是答案:重新思考人机交互的伦理工程(2024,10月17日)检索自2024年10月18日https://techxplore.com/news/2024-10-rethinking-human-machine-interaction-ethical.html本文受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐