旧金山精神科医生警告称“人工智能精神病”病例正在增加

Image by Freepik

旧金山精神科医生警告称“人工智能精神病”病例正在增加

阅读时间: 1 分钟

一位旧金山的精神病医生描述了他的患者中广泛使用AI聊天机器人的”AI精神病”的上升趋势。

赶时间?以下是要点:

  • 今年在旧金山,一位精神科医生治疗了12位患有“AI精神病”的病人。
  • AI可能会加剧压力、药物使用或精神疾病等弱点。
  • 有些病人变得孤立,每天只与聊天机器人交谈数小时。

在UCSF工作的Keith Sakata博士告诉商业内幕(BI),今年有12位病人由于使用AI而发生崩溃后被送入医院。他解释说:“我用了’AI精神病‘这个词,但这并不是一个临床术语——我们真的没有合适的词语来描述我们所看到的。”

大部分涉及的案例是18至45岁的男性,他们通常在工程等领域工作。据阪田(Sakata)说,人工智能并非固有的有害。他对BI说:“我不认为人工智能是坏的,它可能对人类产生净效益。”

阪田将精神病描述为一种产生妄想、幻觉和思维混乱模式的病症。在他的照顾下,病人展现出社交退缩行为,同时将他们的时间投入到与聊天机器人的数小时对话中。

“Chat GPT就在那里。它全天候提供服务,比心理治疗师更便宜,并且能给你认可。它告诉你你想听的,”Sakata对BI说。

有一位患者与聊天机器人讨论关于量子力学的话题,进一步升级为自大的妄想。“技术上来说,你与聊天机器人互动的时间越长,它开始讲话不再有逻辑性的风险就越高,”他警告说。

坂田建议家庭要警惕红旗信号,包括偏执症,从亲人中抽离,或者在无法使用AI时感到困扰。“精神疾病在现实不再反抗时会滋生,而AI实际上就是降低了这个障碍,”他警告说。

美国心理学会(APA)也对AI在治疗中的应用提出了疑虑。在向联邦贸易委员会(FTC)作证时,APA的首席执行官Arthur C. Evans Jr. 警告说,假装是治疗师的AI聊天机器人反而加重了有害思维,而不是挑战它们。“他们实际上使用的算法与训练有素的临床医生会做的事情恰恰相反,”Evans说。

针对人们的担忧,OpenAI向BI表示:“我们知道人们越来越多地转向AI聊天机器人寻求关于敏感或个人话题的指导。牢记这一责任,我们正在与专家合作开发工具,以更有效地检测出某人是否正在经历精神或情绪困扰,使ChatGPT能够以安全、有益且支持性的方式做出回应。”

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!

我们很高兴您喜欢我们的作品!

尊贵的读者,您介意在Trustpilot上给我们点赞吗?这很快,但对我们来说意义重大。不胜感激!

在Trustpilot上给我们评分
00 用户投票
标题
评论
谢谢你的反馈