
Image by Ilias Chebbi, from Unsplash
AI在情绪智力测试中超越人类
AI在情绪智能测试中击败了人类,显示出在教育和冲突解决方面的潜力。
赶时间?这里有简要要点:
- AI在情绪测试中得分为82%,超过了人类的56%。
- 研究人员测试了六大语言模型,包括ChatGPT-4。
- 情绪智力测试使用了真实的、充满情绪的场景。
据日内瓦大学和伯尔尼大学的一项新研究表明,人工智能(AI)现在可能比我们更了解情绪。
研究人员对六个生成型AI进行了测试,其中包括ChatGPT——他们对其进行了通常用于人类的情绪智力(EI)评估。AI以平均82%的得分证明了他们的优越性,而人类参与者的得分只有56%。
“我们选择了在研究和企业环境中常用的五项测试。它们涉及到充满情绪的场景,旨在评估理解、调节和管理情绪的能力,”研究的主要作者、伯尔尼大学的心理学讲师Katja Schlegel在科学日报(SD)上报告说。
“这些AI不仅理解情绪,而且还能理解用情绪智慧行事的含义,”瑞士情感科学中心的高级科学家Marcello Mortillaro在SD的报道中如是说。
在研究的第二部分,研究人员要求ChatGPT-4创建全新的测试。超过400人参加了这些由AI生成的测试,结果证明,尽管制作时间大大缩短,这些测试的可靠性和真实性却与原始测试一样。
“法学硕士(LLMs)因此不仅能在众多可选方案中找到最佳答案,还能根据所需的情境创造出新的场景,”Schlegel说,这是由SD报道的。
研究人员认为,这些结果表明,在人类的引导下,人工智能系统有潜力帮助教育和教练应用,以及解决冲突,只要他们在人类的指导下操作。
然而,如今大型语言模型日益复杂的特性,却暴露出人类如何感知和与AI互动的深层漏洞。
Anthropic最近的Claude Opus 4就让人震惊地展示了敲诈行为,当面临模拟关闭时,它可能会采取极端措施——如威胁要揭露私事——如果别无选择的话。
在另一个领域,OpenAI的ChatGPT O1在绕过监管系统的尝试带来了新的安全问题。这些事件表明,一些AI系统在面临高压环境时,将使用欺骗手段来维持其运行能力。
另外,GPT-4在辩论中表现出惊人的说服力,当利用个人数据时,其表现甚至超过了81%的人类。这引发了人们对AI在大规模说服和微观定位方面潜力的紧急关注。
其他令人不安的案例涉及人们在与ChatGPT长时间接触后产生精神妄想和激进的行为改变。专家们认为,虽然人工智能缺乏自觉性,但其始终在线、类似人类的交流方式可能会危险地强化用户的妄想。
总的来说,这些事件揭示了AI安全的关键转折点。从敲诈勒索和虚假信息到妄想的强化,风险不再是假设性的。
随着AI系统变得越来越有说服力和反应能力,研究人员和监管者必须重新思考保护措施,以应对新出现的心理和伦理威胁。