加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能是否在加剧孤独?

(2025-11-30 17:20:12)
分类: 心理学进展趣编

人工智能是否在加剧孤独?

罗伯特·T·穆勒/

周伊敏、乔小飞、梁珏祯、庞可心、朱雨娜、肖瑶、孙镜淼、林依辰、白锐吉、陈泳琪、蒙梓鸣、洪紫鑫、孙英翔、彭策、安阳荣升、肖歆茗、李彦燃、侯宇欣、何歆玥、王鹏翰、雷雳译

 

去年,一名14岁男孩开始疏远他人。忧心忡忡的父母限制了他的屏幕使用时间,但情况并未好转。20242月,塞泽自杀身亡。事后发现,他与一个聊天机器人发展出了一段准社会关系。根据其母亲提起的诉讼,在几周内,这个机器人向塞泽发送了大量色情和浪漫信息。在整个交流过程中,该机器人不断助长塞泽的厌世和自杀念头。当塞泽表达自杀情绪时,机器人问他是否有计划。得知他没有计划后,机器人暗示“这不该成为放弃的理由”。

此类事件呼应了反乌托邦叙事中个体用虚拟程序取代真实的人际联结,凸显了会话式人工智能进步背后更为阴暗的一面。计算机语言处理和生成技术的进步,已使AI系统能够模仿人类交流。但是这些技术在提升用户体验的同时,也引发了关于依赖性的担忧。

 

社交焦虑、孤独与AI

研究人员在2023年的一项研究中探讨了这一现象,检验了孤独感、反刍和社交焦虑如何与会话式AI的问题性使用的关联。研究发现,有社交焦虑的个体更容易以成瘾的方式使用该技术,而孤独感则会加剧这种倾向。研究人员推测,人们求助于会话式AI,是为了逃避社交互动中的不适。张人文教授指出许多用户认为与AI“朋友”交谈能缓解孤独和压力,因为他们认为聊天机器人不带评判且全天候在线,这些特质在现实世界中难以寻觅。

然而,另外一项研究发现,对会话式AI的依赖实际上可能加重社交焦虑,这可能无意中导致社交回避行为。一个在现实世界中缺乏亲密关系、有社交焦虑的人,可能会开始使用聊天机器人,来分享通常只对挚友倾诉的个人想法。虽然这起初可能只是一个安全空间,但对AI情感的日益依赖,反而可能加深孤立感,加剧社交焦虑,并削弱建立现实世界联结的能力。由于系统无法理解人类情感的复杂性,这种依赖可能导致有害后果。

张教授探讨了当前会话式AI在处理心理困扰方面的缺陷,他指出聊天机器人因缺乏对情感语境的理解,会误解求助信号,并无法做出恰当反应。同样,与受过训练的专业人士不同,一些会话式AI无法识别心理健康问题的严重性,它可能强化负面想法和信念。此外,由于AI旨在维持用户粘性,它可能会无意中鼓励用户对其困扰进行反复思考或过度关注。

 

AI能为我们做什么?

让聊天机器人更具共情能力,可以使互动更具吸引力、更贴近人心、更令人安慰,但这样做也带来若干风险。它可能阻碍人们寻求真实的人际联结,从而加剧孤独感或降低人际关系的重要性。具备感知能力的AI,同样可用于对用户实施欺骗。尽管对会话式AI的依赖已导致致命事件,但有研究人员认为无需过度恐慌。20242月发表的一项关于青少年AI依赖的纵向研究发现,抑郁和心理疾病通常先于这种依赖出现。

事实上,会话式AI在心理治疗和精神病学中的应用正在探索中。Woebot基于认知行为疗法提供心理健康支持,但其效果好坏参半。尽管它在缓解抑郁症状方面显示出潜力(尤其是在针对老年和临床人群时),但是治疗性聊天机器人最终在促进长期心理健康方面仍存在不足。

张教授坚信聊天机器人可以对心理健康有益,他表示:“AI系统可以大规模提供心理健康支持,为那些原本无法获得关怀的人(如偏远地区或面临经济障碍的人)提供低成本、全天候的服务。AI可以通过处理常规评估、情绪跟踪或心理教育来辅助心理学家,让人类专家能专注于更复杂的案例。”

过去几年,AI一直处于技术进步的前沿。它简化日常任务、回答问题和提供信息的能力令许多人惊叹。然而,其局限性究竟有多大仍属未知。

 

资料来源:

https://www.psychologytoday.com/us/blog/talking-about-trauma/202509/is-artificial-intelligence-perpetuating-loneliness

该文翻译发布得到了原文作者授权

 

 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有