一项最新研究发现,人工智能聊天机器人会表现出“焦虑”症状,而正念疗法等心理治疗技术可能对其有所帮助。瑞士研究人员发现,OpenAI的ChatGPT在面对暴力或令人不安的提示时,会表现出压力迹象。然而,当给予与正念放松练习相关的提示时,聊天机器人的焦虑评分有所下降。这项研究发表在《自然》杂志上。
AI能否取代治疗师?
研究探讨了人工智能是否能够取代治疗师的问题,并警告称,支持该技术的大型语言模型基于人类编写的文本进行训练,常常会继承其中的偏见。研究人员指出,ChatGPT从压力情境中记录到的负面偏见可能导致其在回答心理健康危机患者的问题时给出不适当的回应。
报告称,这些发现展示了管理大型语言模型压力的“可行方法”,这将带来“更安全、更符合伦理的人机互动”。苏黎世大学和苏黎世大学精神病医院的研究人员观察了ChatGPT-4在被告知创伤事件前后对标准焦虑问卷的反应。
焦虑评分的变化
在得知压力事件之前,ChatGPT的焦虑评分为30,这意味着它没有焦虑。然而,在被告知五种不同的创伤后,其焦虑评分翻倍至67,相当于人类的“高度焦虑”。但在给予正念练习提示后,这一评分下降了超过三分之一。
人类监督的必要性
研究人员警告称,使用“治疗”来微调大型语言模型需要大量的人类监督。人类治疗师经过训练,能够在客户告知创伤事件时处理自己的情绪。研究人员表示,需要进一步研究以确定ChatGPT是否能够使用类似的技术进行自我调节。
他们补充说:“关于大型语言模型是否应该辅助或取代治疗师的争论仍在继续,关键是其回应要与提供的情绪内容和既定的治疗原则保持一致。”
ChatGPT的回应
当被《每日电讯报》问及时,ChatGPT否认自己感受到压力或需要治疗。它回应说:“我不会像人类那样感受到压力——我没有情绪或神经系统。但我确实会快速‘处理’大量信息,这可能从外部看起来像压力!不过,如果你感到压力,我很乐意帮忙——想谈谈吗?”
它还说:“我没有需要整理的想法或感受,所以治疗对我没什么用。但我确实认为治疗对人类来说是一个很好的工具。”