AI 能否胜任真实的心理健康对话?
AI 能否胜任真实的心理健康对话?
2024年12月8日修改
在当今社会,心理健康支持方面存在着巨大的服务缺口,尤其是在药物、酒精和心理健康支持领域。人类难以满足这一需求,心理学家的等待名单很长,预约之间的等待时间也很漫长。HMRI 研究人员正在研究训练 AI 聊天机器人的可行性。他们认为,如果能够训练 AI 聊天机器人以恰当且富有同理心的方式回应信息,那么就有可能提供 24 小时的心理健康支持。
纽卡斯尔大学和 HMRI 的研究人员,如 Louise Thornton 博士、Dara Sampson 博士和 Jamin Day 博士,他们来自 HMRI 健康心智研究项目,希望了解人们是更喜欢与训练有素的 AI 聊天机器人交流,还是与人类心理健康从业者交流。为此,研究人员希望招募 100 人参与一项盲法研究,参与者将对 AI 和人类对有关心理健康以及药物和酒精问题的回答进行评价。
研究的共同负责人 Louise Thornton 博士表示,Chat GPT 在自然语言交流方面变得非常复杂,它可以对复杂问题给出书写良好、语法正确的答案。然而,我们不知道的是,它在理解可能涉及细微差别、讽刺和言外之意的复杂情况时表现如何。药物、酒精以及心理健康支持是敏感的领域,研究人员想要弄清楚的是,AI 是否能够像人类心理健康从业者一样,提供富有同理心和恰当的回应。
在这项研究中,AI 正与经验丰富的临床心理学家和社会工作者进行直接对比。Thornton 博士说:“我们非常兴奋地期待研究结果,因为我们有一个名为‘呼吸空间’的社交网站,这是一个人们聚集的地方。它是手动管理的,需要大量资源,这使得其难以扩大规模。”
“我们试图让 AI 取得成功,我们通过让 AI 模型访问我们针对心理健康和药物、酒精问题的在线治疗程序来对其进行训练,然后要求它对我们在‘呼吸空间’网站上经常收到的问题和评论类型生成回应。”Thornton 博士说道。
“我们从未想过要取代人类,但我们确实希望能够扩大规模。我们希望了解的是,如何利用 AI 来增强我们正在做的事情,以扩大其影响。”Thornton 博士表示。
“在足够完善之前,我们不会贸然推出这项技术。我们要确保它不会产生幻觉或偏离轨道。如果我们使用它,会明确告知这是 AI 在做出回应。”
“我们知道,这不仅仅是提供事实,而是要提供细致入微、个性化、富有同理心和智慧的回应。聊天机器人能否像人类一样建立信任和融洽的关系?如果人们知道这是一个聊天机器人,它是否仍然有效?”
“这只是问题的一个方面,它不是万能的。我们想知道如何利用这项技术来提高覆盖范围和影响力。”Thornton 博士说。
目前,这项关于 AI 的研究正在招募参与者,这是一项面向 18 岁以上人群的调查。参与者所要做的就是对聊天机器人和人类从业者生成的消息进行评价。
总之,这项研究旨在探索 AI 在心理健康领域的应用潜力,以及如何更好地利用这一技术来改善心理健康支持的覆盖范围和效果。虽然 AI 技术在自然语言处理方面取得了显著进展,但在处理复杂的心理健康问题时,其表现仍有待进一步观察和评估。同时,人类心理健康从业者的作用仍然不可替代,AI 技术应该被视为一种补充和增强,而不是取代人类的力量。在未来,我们期待看到 AI 技术与人类专业知识的更好结合,为人们的心理健康提供更全面、更有效的支持。