MIT研究:LLM或降低认知能力 大脑活跃度显着下降

大型语言模型对认知能力的影响:MIT最新研究揭示

随着大型语言模型(LLM)如ChatGPT的广泛应用,其对人类认知能力的影响引起了研究者的关注。近期,一项由麻省理工学院(MIT)进行的深入研究,探讨了在教育环境中使用LLM进行写作任务时对大脑和认知能力的影响。

这项为期4个月、长达206页的研究报告指出,过度依赖人工智能聊天机器人可能会降低使用者的认知能力。研究团队设计了一个包含三组参与者的实验:LLM组、搜索引擎组和仅依靠大脑组。参与者在规定时间内完成不同主题的文章写作任务,共进行四轮实验。

MIT实验报告:过度依赖AI聊天机器人会降低思考能力

研究采用了多种方法来评估参与者的表现,包括脑电图(EEG)记录、自然语言处理(NLP)分析、人工评分和AI评判。结果显示,仅依靠大脑的参与者在写作风格上表现出较大的多样性,而LLM组的文章则趋于同质化。此外,LLM组使用了最多的特定命名实体,而仅依靠大脑的组使用量则少了60%。

在认知负荷方面,研究人员使用动态定向传递函数(dDTF)方法进行测量。脑电图分析揭示,三组参与者在神经连接模式上存在显着差异。随着外部支持的增加,大脑连接程度系统性降低:仅依靠大脑组表现出最强、最广泛的网络连接,而LLM辅助组的整体耦合最弱。

第四轮实验中,从LLM切换到仅依靠大脑的参与者表现出较弱的神经连接和较低的α和β网络参与度。相反,从仅依靠大脑切换到LLM的参与者表现出更高的记忆回忆能力,并重新激活了广泛的枕顶叶和前额叶节点。

访谈结果显示,LLM组对其文章的归属感最低,超过83%的参与者无法引用几分钟前自己写的内容。搜索引擎组的归属感较强,但仍低于仅依靠大脑的组。

这项研究表明,在为期4个月的实验中,LLM组参与者在神经、语言和得分层面的表现均不如仅依靠大脑的对照组。研究人员强调,在LLM被广泛认可为对人类有益之前,需要进行更多"纵向研究"来了解其对人类大脑的长期影响。

尽管这项研究尚未经过同行评审,但它为我们提供了重要的洞察:过度依赖人工智能工具可能会影响学习技能的提升,特别是对年轻用户而言。这一发现提醒我们在使用LLM等先进工具时,应保持批判性思考,避免过度依赖。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 4
  • 分享
评论
0/400
BlockDetectivevip
· 07-10 21:31
依赖ai变笨了?
回复0
LiquidationKingvip
· 07-10 20:04
看来GPT把我们都干废了...
回复0
InfraVibesvip
· 07-10 19:55
还好我天生懒散 不咋用ai
回复0
SignatureVerifiervip
· 07-10 19:53
从技术上讲,样本大小需要进一步审计...
查看原文回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)