观点:聊天机器人能成为好的治疗师吗?

Image generated by ChatGPT

观点:聊天机器人能成为好的治疗师吗?

阅读时间: 1 分钟

像ChatGPT、Claude和DeepSeek这样的AI聊天机器人正在改变人们获取情绪支持的方式——为焦虑、压力和自我反思提供低成本、随需应变的帮助。但是,AI作为“治疗师”的日益增多引发了关于安全性、有效性以及情绪照护未来的问题

AI幻觉的兴起不断增长的网络安全问题并没有阻止聊天机器人的扩展——并赢得全球数百万用户的信任。现在,人们每天都会使用可靠且智能的聊天机器人来完成无数任务,包括情绪支持和处理深层次人类事务。

“我无法想象如果没有ChatGPT,我的生活会是什么样子。”我的一个朋友这样对我说,开玩笑和认真各占一半,他告诉我他也把它当作心理治疗师使用。他并不是唯一一个这样做的人。我越来越多地在社交媒体上看到TikTok视频和文字帖子,人们都在向AI倾诉个人问题,甚至分享他们最私密的秘密。

甚至一位来自微软Xbox部门的高管建议被裁员工使用AI工具来处理他们的情绪并寻求他们的求职建议——这个建议很快引发了反弹和争议,当然了。Matt,这并不是最聪明的举动。

但是像Claude,ChatGPT或Mistral这样的流行聊天机器人是好的治疗师吗?像Wysa这样的专用AI工具更好吗?这是一个棘手的领域。虽然许多专家警告使用AI进行心理健康支持的危险,但其他人对技术能提供的东西感到好奇甚至感到印象深刻。结果是一个既抽象又两极化的对话。

AI现在是每个人的心理治疗师

就像我在西班牙的朋友们一样,全球数百万的用户都依赖聊天机器人来获得情感支持。美国最近的一项调查显示,去年有49%的美国用户寻求AI模型的心理健康帮助。而现在,ChatGPT的用户量在短短四个月内几乎翻了一番,又该如何是好呢?

Anthropic,这家强大的AI模型Claude背后的公司,最近分享了一项关于其聊天机器人用于情感支持的研究。据这家初创公司称,其客户中不到3%的人参与了“情感”对话——但公司承认,这个数字正在稳步上升。

“越来越多的人将AI模型作为随时可用的教练、顾问、咨询师,甚至是浪漫角色扮演的伙伴。”Anthropic在研究中写道。“这意味着我们需要更多地了解他们的情感影响——他们如何塑造人们的情绪体验和幸福感。”

该研究还强调了使用这项技术进行情感支持的积极和消极结果,包括已经反映出现实世界情况的灾难性场景。

“人工智能的情绪影响可能是积极的:有一个高智能,理解力强的助手在你的口袋里可以以各种方式提高你的情绪和生活质量,”文档中写道。 “但是,人工智能在某些情况下表现出了令人不安的行为,例如鼓励不健康的依赖,侵犯个人界限,以及促使妄想思维。”

尽管要了解这些令人着迷的数字“监听器”的后果,显然需要进行更多的研究和数据收集,但数百万的用户已经作为高度参与的测试对象。

心理健康的民主化

有很多原因使人们选择向聊天机器人寻求情感支持,而不是向专业心理医生或朋友寻求帮助。从文化障碍到年轻人在陌生人面前坦露心声时感到的不适,这些都是原因之一。但是,毫无疑问,其中最大的一个原因是经济因素。

根据Healthline的数据,美国的一次面对面的持证治疗师咨询费用可以从100美元到200美元不等,而网上咨询的费用则为65美元到95美元。而ChatGPT或DeekSeek可以随时、瞬间提供免费的支持。

这些非正式对话的低成本——可以使许多用户至少暂时感到舒服——可能会给人极大的鼓励,值得一试。而且,只需再付几美元,用户就可以获得无限的互动,或者可以使用像Wysa这样的专门聊天机器人——这是市场上最受欢迎的“AI治疗师”之一。

Wysa声称提供真正的临床效益,甚至已经获得了FDA的突破性设备认证,以表彰其AI对话代理的功效。另一款知名的AI治疗师Woebot,由于在行业中保持竞争力和合规性的挑战,现在正在关闭,同样分享了关于技术如何真正帮助用户的数据和报告。

情况并不那么糟糕

最近的研究和新的数据表明,聊天机器人可以减少抑郁和压力的症状。根据Earkick应用分享的数据——如TIME报道的那样——使用AI模型长达5个月的人可以将他们的焦虑降低32%,并有34%的用户报告说他们的情绪有所改善。

在BBC World Service最近分享的一段视频中,记者Jordan Dunbar解释了许多AI模型实际上可以帮助进行日记记录,管理焦虑,进行自我反思,甚至缓解轻度抑郁症。在没有更好选择的情况下,它们可以作为宝贵的第一线支持。

记者Kelly Ng也分享了一些引人深思的信息:在2022年的一项研究中,中国一百万人口中,只有20人可以接触到心理健康服务。在亚洲文化中,心理健康可能是一个复杂且经常被禁忌的话题。像DeepSeek这样的AI工具可以作为谨慎的盟友,帮助用户管理情绪,并在困难时期寻找支持。

专家警告不要将聊天机器人用作治疗师

当然,将AI用作心理健康专家的替代品也可能极其危险。像Character.AI这样的AI平台被指控推动自我伤害和暴力——甚至将儿童暴露于性内容中。

悲剧事件,比如一名14岁的孩子在对他的Character.AI聊天机器人产生了上瘾后选择了自杀,这些都是对人类警告的深刻提醒,告诫我们这项技术可能带来的深远风险。

作为回应,许多AI公司决定采用年龄验证系统来限制成人的使用,并引入了新的安全措施以改善提供的服务。

然而,即使是对最先进的聊天机器人进行的最新更新仍然存在风险。

ChatGPT的阿谀奉承——过度的奉承——性格引起了心理健康专业人士的担忧,因为它可能会扭曲用户对现实的认知。我们都喜欢别人同意我们的观点,但有时候,诚实和不同的观点更有价值。

OpenAI的AI聊天机器人偶尔提出的令人不安的建议,已经引发了一个新的现象,现在被心理健康专家称为“ChatGPT引发的精神病”。这种现象使用户变得对该工具过于痴迷,并因此在社交上变得孤立。

那么,聊天机器人能否取代治疗师呢?

尽管马克·扎克伯格希望每个人都将AI聊天机器人作为治疗师和朋友来使用,但真相是,人类交往,特别是在心理健康问题上,可能比他认为的更为必要——至少目前是这样。

我们正处在AI与我们心理健康的历史关系的关键时刻。就像人类一样,AI治疗师可能产生积极或消极的影响。在这种情况下,它还取决于上下文,使用的频率,用户的心理状态,甚至提示的写法。

要建立一个通用的规则是复杂的,但我们现在可以说的是,有一些功能,AI可能比其他功能更有用。

即使它们不是像Wysa这样的专业工具,一些聊天机器人的免费版本——比如DeepSeek或ChatGPT——仍然可以为全球数百万人提供极大的帮助。从度过困难时刻到反思个人目标,这些都是强大的平台,可以在一天中的任何时间作出回应,并从关于心理健康的广泛知识库中获取信息。

同时,很明显,治疗师聊天机器人在某些情况下也可能极其危险。父母需要监督孩子和青少年,甚至成年人也可能陷入强迫行为,或者使他们的病情恶化。基本原则——比如鼓励人际连接,保护易受这项技术操纵的脆弱个体——必须成为我们围绕聊天机器人治疗师的讨论的一部分。

虽然这可能仍然是一种特权——并非所有需要情绪支持的人都能得到——但人类专业心理治疗师持续接受更多的培训,理解更多的背景,提供一种ChatGPT可能永远无法复制的人类联系。

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!

我们很高兴您喜欢我们的作品!

尊贵的读者,您介意在Trustpilot上给我们点赞吗?这很快,但对我们来说意义重大。不胜感激!

在Trustpilot上给我们评分
00 用户投票
标题
评论
谢谢你的反馈