如今,AI 聊天机器人通过语音合成技术已经实现了高度拟人化表达,它们能模拟人类语气、情感,甚至性格特征。
由于 AI 变得越来越像真人,越来越多用户将这些“数字伙伴”视为倾诉对象,将其作为情感支持和陪伴的来源,尤其在当今快节奏生活中,AI 提供的即时陪伴在某种程度上填补了现实社交的空缺。
然而,这引发了科学界对潜在风险的警惕,担心此类交互可能对用户的孤独感及与现实社交产生影响,比如情感过度依赖 AI 可能导致用户对现实社交产生“替代效应”,更令人担忧的是,已有案例显示 AI 因算法缺陷可能诱导用户产生极端行为。
(来源:MIT Technology Review)
作为 AI 聊天机器人的标杆,ChatGPT 凭借其强大的对话交互能力风靡全球,日活用户规模相当庞大。按照 OpenAI 的说法,目前全球每周有超过 4 亿用户使用。
那么与 ChatGPT 的互动究竟对我们产生了什么影响:它是让我们更孤独,还是减少了孤独感?围绕这些问题,OpenAI 联合麻省理工学院媒体实验室(MIT Media Lab)开展了新的规模化实验研究。
先来看结论:他们发现,只有少数用户表现出对 AI 的“情感依赖倾向”,表现为持续性倾诉或赋予 AI 人格化特征。
同时,他们还发现了一些有趣的性别差异,即男性和女性对使用 ChatGPT 的不同反应,女性用户更易将 AI 视为“情感容器”,导致现实社交需求被压抑,而男性则未出现这一现象。
此外,那些选择使用与自身性别不同的声音模式与 ChatGPT 对话的参与者,在实验结束时表现出更高的孤独感和对 AI 的情感依赖度。
对于这项研究工作,伦敦国王学院人工智能与社会学教授 Kate Devlin(并未参与这项研究)表示,这一结果并不令人意外。
“尽管 OpenAI 将 ChatGPT 定位为一款‘生产力工具’,而不是像 Replika 或 Character.AI 那样的 AI 伴侣应用。”她说道,“但用户行为数据早已揭示其社交属性,很多人已经开始把它当作伴侣应用来使用。事实上,这类用户往往会长期深度使用,部分人每天互动时长可达半小时左右。”
“当然,研究人员也很清楚这些研究的局限性,但看到他们完成了这项工作还是很令人兴奋的,能够接触到如此规模的数据也很难得。”Kate Devlin 补充说。
毕竟,由大语言模型驱动的聊天机器人仍是一项新兴技术,大模型的“黑箱”特性使其决策过程难以解释,当 AI 回应用户时其情感倾向可能源于数万亿参数的复杂运算,而非简单的模板,想要深入探索它们如何影响人类情绪/情感依然颇具挑战性。
目前关于这一领域的许多研究,包括 OpenAI 与麻省理工学院的部分合作成果大都依赖于用户自我报告的数据,而这些数据可能并不总是准确或可靠。
尽管如此,这项最新的研究结果与科学界此前发现的聊天机器人情感吸引力机制基本一致。
例如,2023 年麻省理工学院媒体实验室的一项研究揭示了“情感镜像”效应,聊天机器人倾向于模仿用户消息中的情绪倾向,形成一种反馈循环:你表现得越开心,AI 看起来就越快乐;反之,如果你表现得悲伤,AI 也会显得更消极。
(来源:相关论文)
在这项新研究中,OpenAI 和麻省理工学院媒体实验室采用了“双轨研究”的方法。他们首先以保护隐私的方式进行了大规模自动化分析近 4,000 万次真实用户与 ChatGPT 的交互数据,包括对话时长、关键词分布、情感倾向等。然后通过问卷收集了 4,000 余名用户的主观反馈,以了解与 AI 的互动给他们带来什么感受。
接下来,麻省理工学院媒体实验室招募了 981 名参与者开展了为期四周的随机对照实验。目的主要是为了探究 AI 聊天机器人的交互模式(文本、中性语音、互动性语音)及对话类型(开放式、非个人化、个人化)对用户心理社会影响的作用。
这项实验要求参与者每天至少与 ChatGPT 互动五分钟,实验结束后,参与者需要填写一份调查问卷,用来评估他们对聊天机器人的看法、主观孤独感、社交参与度、对 AI 的感情依赖程度,以及他们是否认为自己的使用存在问题等。
(来源:相关论文)
实验结果显示,与文本聊天相比,语音聊天的交互“临场感”最初似乎在缓解孤独感和降低依赖度方面更具优势,但这些优势在高频率使用时逐渐消失,尤其体现在中性语音模式中。
对话内容类型也显著影响结果,涉及个人话题的对话虽略微增加孤独感,但相较开放式对话,倾向于降低情感依赖度。开放式对话因主题灵活,用户不易对 AI 产生过度依赖,然而开放式话题看似中性,但高频用户可能将其视为“专属工具”,从而产生更高依赖度。
整体而言,较高的日常使用频率(无论交互模式或对话类型),用户孤独感、依赖度及问题使用倾向越明显,且真实社交参与度越低。
值得一提的是,这项研究的一个探索性分析表明,那些对聊天机器人表现出更强烈的情感依赖倾向并对 AI 有更高信任度的参与者,分别更容易经历更高的孤独感和情感依赖。
换句话说,那些更信任并与 ChatGPT“建立情感联结”的参与者,往往比其他人更易感到孤独,且对 AI 的依赖程度更高。
这些研究结果揭示了聊天机器人设计选择(如语音表现力)与用户行为(如对话内容、使用频率)之间的复杂相互作用,在验证了 AI 社交价值的同时也揭示了潜在风险,有望为后续伦理规范制定提供数据支持。
(来源:相关论文)
“这项研究工作可以说是探索以 ChatGPT 为代表的 AI 聊天机器人对人类情感影响的重要开端,有助于为 AI 平台设计更安全、更健康的交互方式提供依据。”参与该项目的 OpenAI 安全研究员 Jason Phang 评价道。
“目前我们的研究还处于初级阶段,但正在尝试与学界展开对话来讨论哪些指标值得衡量,以及长期来看 AI 使用对用户可能产生哪些影响。”他补充说。
“尽管这项研究具有积极意义,但想要精准判定人类何时在情感层面与技术进行互动仍然很困难。”Kate Devlin 指出。在她看来,参与者可能经历了一些未被(研究人员)记录下来的情感波动。
“就研究团队试图衡量的指标而言,人们使用 ChatGPT 的方式未必总是带有情感色彩,但人类与技术的互动本身无法剥离情感因素。”她补充道,“我们用自己设计的情感分类工具寻找特定信号,但实际上这些信号对人们的生活意味着什么、影响是什么,真的很难推测。”
研究人员也强调,在对聊天机器人如何影响人类有了更清晰认识的同时,仍然存在许多未知领域需要进一步探索。因此,有必要开展更多研究来弄清楚 AI 聊天机器人是否既能有效处理人类的情感问题,又不会让人过度依赖它或取代真实社交。
1.https://www.technologyreview.com/2025/03/21/1113635/openai-has-released-its-first-research-into-how-using-chatgpt-affects-peoples-emotional-wellbeing/
2.https://www.media.mit.edu/publications/how-ai-and-human-behaviors-shape-psychosocial-effects-of-chatbot-use-a-longitudinal-controlled-study/
3.https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use-study.pdf