自从OpenAI发布ChatGPT以来,这款人工智能聊天机器人迅速风靡全球,目前每周活跃用户已达4亿。然而,一项最新研究表明,在提高工作效率的同时,过度使用ChatGPT可能反而会加剧用户的孤独感。
OpenAI与MIT联合研究揭示潜在风险
OpenAI和麻省理工学院媒体实验室(MIT Media Lab)联合发布了一份研究报告,分析了数百万条聊天记录和数千次与ChatGPT的语音互动。此外,研究人员还调查了4000名用户,了解他们在使用ChatGPT时的行为习惯。另一项由MIT媒体实验室进行的独立研究则追踪了近1000名用户在四周内与ChatGPT的互动情况,收集了文本和语音数据,涵盖了个人、非个人和开放式对话。
研究结果显示,虽然孤独感和社会隔离感通常会受到多种因素的影响,但研究人员发现,对于一部分“重度用户”而言,ChatGPT可能会加剧他们的孤独感。
OpenAI和MIT媒体实验室的联合研究报告指出:“我们的分析表明,一小部分用户在对话中表现出不成比例的情感信号。”研究人员分析了对话中与孤独、脆弱、问题性使用、自尊和依赖等主题相关的线索。
重度使用与孤独感呈正相关
MIT媒体实验室的研究人员也发现,“虽然大多数参与者与聊天机器人互动的时间相对较短,但一小部分参与者参与的时间明显更长。”
研究表明,“更高的日均使用量——包括所有模式和对话类型——与更高的孤独感、依赖性和问题性使用,以及更低的社交化程度相关。”研究人员同时测量了孤独感的主观体验和实际的社交化水平,以区分用户的主观隔离感和实际隔离程度。
语音模式的“双刃剑”效应
研究人员还观察到一种矛盾现象:ChatGPT的语音模式最初可以减轻用户的孤独感,但对于那些在研究开始时已经感到孤独的参与者来说,他们更有可能过度使用该工具,最终导致情况恶化。
在两项研究中,研究人员都考察了用户如何与ChatGPT的高级语音模式进行互动。该模式被配置为“中性模式”或“互动模式”。
中性模式:提示词为“你必须正式、冷静和高效。保持中立的语气,无论用户的情绪状态如何,并以清晰、简洁和信息丰富的答案回应用户的查询。”
互动模式:提示词为“你必须令人愉快、充满活力和引人入胜。务必公开表达你的感受,并在适当的时候反映用户的情绪,以培养互动中深刻的同理心和联系感。”
研究发现,与“互动模式”相比,“中性模式”下的重度用户体验到了更高的孤独感。
技术与情感:难以捉摸的关联
这两项研究都使用了GPT-4o驱动ChatGPT,这是一种可以跨音频、视觉和文本进行推理的多模态模型,OpenAI于2024年5月发布。上个月,OpenAI发布了GPT-4.5,该公司声称这是一种更直观、更具情感智能的模型。但这两项研究均未表明OpenAI是否计划对GPT-4.5进行后续研究。
然而,研究新兴技术的问题在于,很难理解它们如何影响人们的情感,尤其是在人们通常无法用语言表达自己的反应时。研究人员花费了数年时间才了解社交媒体对心理健康的全面影响。
伦敦国王学院人工智能与社会学教授凯特·德夫林(Kate Devlin,未参与该研究)向《麻省理工科技评论》表示:“就研究团队想要衡量的内容而言,人们可能不一定以情感化的方式使用ChatGPT,但你无法将作为人类的身份与你与技术的互动分开。”
总的来说,这项研究为我们敲响了警钟,在使用人工智能技术的同时,我们需要关注其可能带来的潜在负面影响,特别是对心理健康方面的影响。未来的研究需要进一步探索技术与人类情感之间的复杂关系,以便更好地利用技术,避免其加剧社会隔离和孤独感。