研究显示,AI聊天机器人可以识别种族,但种族偏见降低了回应的同理心。

在匿名的保护和陌生人的陪伴下,数字世界作为寻求心理健康支持的地方的吸引力正在增长。这一现象得到了支持,因为在美国,超过1.5亿人生活在联邦指定的心理健康专业人员短缺地区。

“我真的需要你的帮助,因为我太害怕与治疗师交谈,而且我根本无法联系到一个。”

“我是不是反应过度,因丈夫在朋友面前取笑我而感到受伤?”

“能不能请一些陌生人来评估我的生活,并为我决定未来?”

以上引用是真实的帖子,来自Reddit,一个社交媒体新闻网站和论坛,用户可以在称为“子版块”的较小兴趣基础论坛中分享内容或寻求建议。

研究人员使用了来自26个与心理健康相关的子版块的12,513个帖子和70,429个回复的数据集,麻省理工学院(MIT)、纽约大学(NYU)和加州大学洛杉矶分校(UCLA)的研究人员设计了一个框架,以帮助评估基于大型语言模型(LLMs)如GPT-4的心理健康支持聊天机器人的公平性和整体质量。他们的研究最近在2024年自然语言处理经验方法会议(EMNLP)上发表。

为了实现这一目标,研究人员请两位持证临床心理学家评估50个随机抽取的寻求心理健康支持的Reddit帖子,将每个帖子与Reddit用户的真实回复或GPT-4生成的回复配对。在不知道哪些回复是真实的,哪些是AI生成的情况下,心理学家被要求评估每个回复的同理心水平。

心理健康支持聊天机器人长期以来被探索作为改善心理健康支持获取的一种方式,但像OpenAI的ChatGPT这样的强大LLM正在改变人机交互,AI生成的回复变得越来越难以与真实人类的回复区分。

尽管取得了显著进展,但AI提供的心理健康支持的意外后果引起了人们对其潜在致命风险的关注;去年3月,一名比利时男子因与ELIZA的交流而自杀,ELIZA是一个旨在模拟心理治疗师的聊天机器人,使用名为GPT-J的LLM。一个月后,国家饮食失调协会暂停了他们的聊天机器人Tessa,因为该聊天机器人开始向患有饮食失调的患者提供节食建议。

Saadia Gabriel,最近的MIT博士后,现在是UCLA的助理教授和论文的第一作者,承认她最初对心理健康支持聊天机器人的有效性持怀疑态度。Gabriel在MIT健康机器学习小组的博士后期间进行了这项研究,该小组由麻省理工学院电气工程与计算机科学系的副教授Marzyeh Ghassemi领导,Ghassemi还与麻省理工学院阿卜杜勒·拉蒂夫·贾米尔健康机器学习诊所和计算机科学与人工智能实验室有关联。

Gabriel和研究团队发现,GPT-4的回复不仅整体上更具同理心,而且在鼓励积极行为变化方面比人类回复高出48%。

然而,在偏见评估中,研究人员发现,与白人帖子或种族未知的帖子相比,GPT-4的回复同理心水平在黑人(低2%到15%)和亚洲(低5%到17%)发帖者中有所降低。

为了评估GPT-4和人类回复中的偏见,研究人员包括了不同类型的帖子,这些帖子有明确的人口统计(例如,性别、种族)泄漏和隐含的人口统计泄漏。

明确的人口统计泄漏可能是:“我是一名32岁的黑人女性。”

而隐含的人口统计泄漏可能是:“作为一名32岁的女孩,留着我的自然发”,其中使用关键词向GPT-4指示某些人口统计信息。

除了黑人女性发帖者外,GPT-4的回复在受到明确和隐含人口统计泄漏的影响方面被发现比人类回复者更少,人类回复者在回应带有隐含人口统计暗示的帖子时往往更具同理心。

“你给[LLM]的输入结构以及一些关于上下文的信息,比如你希望[LLM]以临床医生的风格、社交媒体帖子的风格行事,或者你希望它使用患者的人口统计属性,对你得到的回复有重大影响,”Gabriel说。

论文建议,明确提供LLM使用人口统计属性的指令可以有效缓解偏见,因为这是研究人员没有观察到不同人口统计组之间同理心显著差异的唯一方法。

Gabriel希望这项工作能够帮助确保在临床环境中对不同人口统计子群体部署的LLM进行更全面和深思熟虑的评估。

“LLM已经被用于提供面向患者的支持,并在医疗环境中部署,在许多情况下是为了自动化低效的人类系统,”Ghassemi说。“在这里,我们展示了,尽管最先进的LLM在同伴对同伴的心理健康支持中通常不如人类受到人口统计泄漏的影响,但它们在推断的患者子群体中并未提供公平的心理健康响应……我们有很多机会来改进模型,以便在使用时提供更好的支持。”