人工智能可能会在心理健康工具中再现性别、种族偏见
2025-12-10 08:39

人工智能可能会在心理健康工具中再现性别、种族偏见

  

  俗话说,不要被外表所迷惑。然而,人工智能似乎已经落入了这个陷阱。根据美国科罗拉多大学的一项研究,在心理健康领域治疗患者的项目中使用的一些基于人工智能的工具可能依赖于有偏见的信息。

  刻板印象很难消除。据科罗拉多大学博尔德分校的研究人员称,算法也发现了这些陈词滥调。由计算机科学副教授Theodora Chaspari领导的一项研究揭示了一个令人担忧的现实:用于筛查心理健康问题的人工智能(AI)工具可能会对患者的性别和种族产生偏见。这一发现提出了关于心理健康技术的公平性和有效性的关键问题。

  这项题为“解构基于语音的数字健康机器学习模型中的人口统计学偏见”的研究发表在《数字健康前沿》杂志上,该研究表明,本应筛查焦虑和抑郁等心理健康问题的算法可以根据患者的性别和种族做出假设:“如果人工智能没有得到很好的训练,或者没有包含足够的代表性数据,它就会传播这些人类或社会的偏见,”计算机科学系副教授Chaspari教授说。

  在将人们的音频样本置于一套学习算法之后,研究人员发现了患者的几个潜在危险缺陷。结果显示,与男性相比,机器更有可能误诊有抑郁症风险的女性。

  除了歧视患者的性别,人工智能还会错误地评估患者的语言。据研究人员称,患有焦虑症的人会用更高的音调和更多的激动来表达自己,同时表现出呼吸急促的迹象。相比之下,有抑郁迹象的人更有可能轻声细语,语调单调。

  为了验证这些假设,研究人员分析了参与者在一群不认识的人面前发表简短演讲时的行为。另一组男性和女性在类似临床的环境中相互交谈。

  在第一组中,拉丁美洲人比白人或黑人参与者更紧张,但人工智能没有检测到这一点。在第二组中,算法将男性和女性的抑郁风险划分为相同的水平,但后者实际上有更多的症状。“如果我们认为算法实际上低估了特定群体的抑郁症,那么我们需要告知临床医生,”Chaspari强调说。-法新社新闻

  ×

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐