人工智能的惊人承诺和假装同理心的深刻危险
数百万的我们正在为情感支持转向聊天机器人。但有好的来认为人工智能将永远不能够产生真正的同理心的理由,引发关于它们在社会中角色的深刻质疑
新科学家 By Amanda
Ruggeri
6 March 2024
Technology
Giacomo Gambineri
加沙中的战争进入一百天,我发现越发困难来阅读新闻。我丈夫告诉我可能是来阅读和治疗师谈谈的时候了。相反,在一个寒冷的冬日早晨,在又读到另一个人类悲剧的故事后我强忍着眼泪转向了人工智能。
我给 ChatGPT打了“我对关于这个世界的状况感到精疲力竭”, 在提供一系列务实的建议限制媒体曝光、集中在积极的上并练习自我关心之前它回应道“来感觉被压倒是彻底的可以理解的”。
我关闭了这次聊天。虽然我确信我可以从做所有这些事情受益,但在那一刻我并没有感觉远更好。
人工智能甚至能尝试提供这种帮助似乎可能是奇怪的。但数百万的人已经转向 ChatGPT 和提供方便且廉价的心理健康支持的专业治疗聊天机器人。据称甚至医生在用人工智能来帮助为患者制作更多善解人意的注解。
一些专家说这是一个福音。毕竟不受尴尬和倦怠的人工智能也许能够比人类更开放、更不知疲倦的表达同理心。一组心理学研究人员最近写道,“我们赞美善解人意的人工智能”。
但其他人并不如此确定。许多人质疑一个人工智能从来能够做到同理心并担心人们只能假装来关心从机器寻求情感支持的后果的想法,有些人甚至好奇是否所谓的同理心人工智能的兴起可能改变我们的构想的方式…
详见https://www.newscientist.com/article/mg26134810-900-the-surprising-promise-and-profound-perils-of-ais-that-fake-empathy/
加载中,请稍候......