OpenAI和麻省理工学院研究ChatGPT对情绪健康的影响

AI快讯 2025-03-26

image.png


随着像 ChatGPT 这样的 AI 聊天机器人成为日常生活的一部分,研究人员正在提出一个关键问题:这些工具如何影响用户的情绪和社交福祉?为了探索这个问题,OpenAI 与麻省理工学院媒体实验室合作,进行了两项关键研究,以分析人们如何与 ChatGPT 进行情感互动,以及这些互动如何影响他们。

双管齐下的研究方法

OpenAI 和麻省理工学院之间的合作采用了双管齐下的方法,通过对平台使用模式的观察性研究将真实世界的数据分析与旨在衡量特定类型的参与如何影响用户情绪健康的对照干预研究相结合。

  • 观察性研究:OpenAI 对近 4000 万次真实世界的 ChatGPT 交互进行了大规模的自动化分析。没有人审查个人对话以保护用户隐私。该分析与目标用户调查相结合,帮助研究人员将用户自我报告的情绪与对话模式相关联,并确定情感参与趋势。

  • 对照研究: 与此同时,麻省理工学院媒体实验室在为期 4 周内对近 1,000 名参与者进行了一项随机对照试验 (RCT)。该研究探讨了特定的 ChatGPT 功能(例如语音模式和对话类型)如何影响参与者自我报告的孤独感、情感依赖和社会参与感。参与者每天在指定条件下使用 ChatGPT,包括纯文本或语音交互,使研究人员能够隔离变量并检查不同类型的参与如何影响用户的幸福感和潜在的问题使用。

主要发现

  • 情感参与很少见: 大多数 ChatGPT 互动都缺乏情感线索,如同理心或支持。即使在重度用户中,情感表达的对话也仅限于一小部分。这部分重度用户也更有可能同意“我认为 ChatGPT 是一个朋友”之类的说法。由于这种类型的情感使用集中在一小部分用户群中,因此在查看整体平台趋势时,其影响可能难以察觉。

  • 语音模式的混合效果:在对照研究中,与使用语音的用户相比,通过文本与 ChatGPT 交互的用户在对话中表现出更多的情感暗示,当在消息中平均时。然而,结果显示对整体情绪健康的影响喜忧参半——语音交互在短暂使用时与更好的结果相关,但长时间的日常使用与不太积极的影响相关。值得注意的是,在研究过程中,与中性语音或基于文本的交互相比,使用更具吸引力的语音并没有给用户带来更差的结果。

  • 对话类型很重要: 研究表明,个人对话——用户和 ChatGPT 进行更具情感表达性的交流——与孤独感增加有关,尤其是在较高的使用水平上。然而,当参与度适中时,这些相同的对话与减少情感依赖和降低有问题使用的可能性有关。相比之下,非个人的、以任务为导向的对话通常会导致对 ChatGPT 的情感依赖更大,尤其是在互动频繁且持续时间较长的重度用户中。

  • 个人因素起作用:参与者的个人情绪倾向会影响他们受 ChatGPT 的影响。那些在人际关系中对依恋有更强倾向的人,或者将 ChatGPT 视为朋友或伴侣的人,更有可能报告负面的情绪结果。长时间的日常使用进一步放大了这些影响,增加了这些使用者的情感依赖和孤独感。

    该研究还显示,参与者对 ChatGPT 品质的看法显着影响了他们的情绪结果。将聊天机器人视为值得信赖、具有社交吸引力或善解人意的用户更有可能经历更多的情感依赖和有问题的使用。

    出现了一个积极的趋势:认为 ChatGPT 具有同理心的用户报告了更高水平的真实世界社交互动,这表明某些 AI 品质可能会鼓励在平台之外更健康地参与。

  • 性别和语音交互洞察: 该研究发现了显着的基于性别的差异。与男性参与者相比,女性参与者在长时间使用 ChatGPT 后报告说现实世界的社交互动水平略低。此外,选择使用与自己不同的语音性别与 ChatGPT 的语音模式互动的参与者在为期 4 周的研究期结束时经历了更高水平的孤独和情感依赖,这表明语音特征可能会微妙地影响用户的情绪反应。

除了个人因素之外,研究人员还确定了用户如何与 ChatGPT 互动的更广泛模式,从而更深入地了解不同的使用方式与情绪结果之间的关联。

用户档案揭示了不同的交互模式

这项对照研究确定了用户如何与 ChatGPT 互动的四种不同模式,每种模式都与不同的社会心理结果有关:

  • 社会弱势模式: 该组中的用户报告了高水平的孤独感和较低的现实世界社交化。他们经常将 ChatGPT 视为朋友,并进行情感支持的对话,从而加强了他们与聊天机器人的情感联系。

  • 技术依赖型: 这组表现出更高的情感依赖和有问题的使用行为,尤其是在以前有聊天机器人经验的用户中。他们的互动主要集中在非个人的、以任务为导向的对话上,但他们的频繁使用增加了对平台的依赖。

  • 冷静模式:这些用户的特点是情感参与度低,主要寻求事实信息,几乎没有表现出情感依赖。他们还报告了低孤独感和与他人的高社交互动。

  • 休闲图案: 这类用户参与度较低,经常参与闲聊或个人对话,而没有深入的情感披露。他们报告说情感依赖性低,有问题的使用最少。

这些模式突出了用户行为的多样性,并表明个人参与方式在决定情感结果方面起着关键作用。

研究限制

虽然这些发现提供了有价值的见解,但研究人员指出了几个局限性:

  • 该研究缺乏完全不使用聊天机器人的用户对照组,因此很难将结果与非用户进行比较。

  • 试验持续时间限制为 4 周,长期影响未得到检查。

  • 参与者被分配了特定的条件(例如,文本或语音模式),这些条件可能无法完全反映人们自然地与 ChatGPT 互动的不同方式。

这些限制凸显了持续研究的必要性,以探索 AI 聊天机器人交互的更广泛和长期影响。

为什么重要

虽然 AI 聊天机器人并非旨在取代人际关系,但它们的对话风格和可访问性意味着人们可能会选择以具有情感意义的方式使用它们。了解这些模式对于构建更安全、更健康的平台至关重要。

伦敦国王学院人工智能与社会教授凯特·德夫林 (Kate Devlin) 指出:“ChatGPT 已被设置为一种生产力工具,但我们知道人们无论如何都会将其用作配套应用程序。

麻省理工学院和 OpenAI 的研究强调了准确衡量情感参与的挑战,尤其是在依赖自我报告的数据时。Devlin 补充说:“你不能将作为人类与你 [与技术] 的互动分开。我们使用我们创建的这些情绪分类器来寻找某些事物——但这对某人的生活的实际意义真的很难推断。

“我们在这里所做的很多工作都是初步的,但我们正在努力开始与该领域就我们可以开始衡量的事情类型进行对话,并开始考虑对用户的长期影响是什么,”参与该项目的 OpenAI 安全研究员 Jason Phang 说。

编者注

虽然这项研究为使用聊天机器人的不同情绪结果提供了重要的见解,但个人体验差异很大。作为每天与 ChatGPT 互动的人,我个人发现它是一个积极的、支持性的工具——增强联系和创造力,而不是取代人际关系。

还值得牢记用户意图和框架的重要性。转向 AI 聊天机器人来替代真实关系的人,或者可能已经感到情感脆弱的人,随着时间的推移,可能会受益较少。相比之下,其他人(比如我自己)可能会感到更多支持和参与,因为他们将 AI 视为他们日常生活的增强,一种协作工具,而不是人际关系的替代品。这凸显了 AI 参与如何影响情绪健康的细微个人性质。

AI 素养和安全措施的建议

研究人员强调了将护栏和教育工作整合到 AI 平台以促进更健康使用的重要性。他们建议:

  • 实施保护措施以防止过度使用或有问题的使用,尤其是在依赖风险较高的基于文本的交互中。

  • 专门为容易产生情感依恋的用户设计平台干预。

  • 扩大 AI 素养计划,不仅涵盖技术技能,还涵盖对使用聊天机器人的社会和心理影响的认识。

这些步骤有助于确保用户以安全、平衡的方式与 AI 互动,尤其是在聊天机器人技术越来越深入日常生活的情况下。

展望未来

这项研究标志着了解高级 AI 模型如何影响情绪健康的早期但至关重要的一步。它还强调了 AI 开发人员越来越需要批判性地思考长期的社会和心理影响。

随着 AI 的不断发展,未来的研究需要更深入地挖掘——不仅要研究用户如何进行情感互动,还要研究这些互动如何随着时间的推移塑造现实生活中的关系和心理健康。对于开发人员来说,这些发现提供了指导:周到的设计和透明度可以帮助确保 AI 工具支持而不是破坏人类福祉。

©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章