
Photo by Glenn Carstens-Peters on Unsplash
研究人员揭示,使用AI模型撰写论文的学生面临认知挑战
最近,麻省理工学院的一项研究,专注于使用人工智能模型写作的认知成本,揭示了过分依赖大型语言模型(LLMs)的学生可能面临有害的后果和认知挑战。
赶时间?以下是要点:
- 麻省理工学院的研究揭示,使用AI模型撰写论文的学生会面临有害的后果和认知挑战。
- 那些使用ChatGPT的参与者表现出较弱的神经连接性,并在记忆他们的工作上有困难。
- 专家们得出结论,AI模型可以显著地影响学生及其学习过程,包括研究人员所说的“认知成本”。
这项名为《你的大脑在ChatGPT上:使用AI助手进行论文写作任务时积累的认知债务》的研究发现,使用AI模型可以显著影响学生及其学习过程,包括研究者所称的“认知成本”。
这项研究涉及了54名参与者,结果显示,使用ChatGPT写作的群体在完成任务后的几分钟内,他们的神经连接性降低,且难以记住并引述自己的文章。
尽管研究团队承认他们的样本量较小,但他们希望这些发现能作为“理解AI对学习环境产生的认知和实际影响的初步指南。”
在这项研究中,研究人员将参与者分为三组:一组可以使用如ChatGPT这样的大型语言模型(LLM),另一组可以使用像Google这样的传统搜索引擎,还有一组只能依靠自己的知识——被称为“仅凭大脑”组。
参与者完成了四次文章写作和分析会议——前三次保持原有的组别设置,而在最后一次会议中,工具的使用权限发生了变化,需要LLM组的成员仅使用他们的大脑进行写作。
作为测量工具,科学家们使用了脑电图(EEG)来记录大脑活动,包括参与度和负荷——科学家们还最近开发出了一个用于检测精神疲劳的电子纹身。该研究还包括了自然语言处理分析,参与者访谈,以及由人类教师和AI工具对论文进行评分。
专家们揭示出,大脑连接性和使用外部工具之间存在强烈的相关性。仅依赖大脑的组别具有最高级别的神经连接性,而那些使用AI的人则显示出最弱的连接性。
记忆保持也受到了负面影响。使用AI模型的组别在引述自己的文章时遇到了更多困难,并报告了对自己作品“所有权”感的最低水平。
“随着LLM使用在普通人群中的教育影响刚开始显现,在这项研究中,我们展示了一个紧迫的问题,那就是基于我们研究结果的学习技能可能会有所下降,”研究者们写道。“LLM组的参与者在所有层面:神经、语言和评分,都比大脑组的对应者表现得更差。”