🎯 情报来源:量子位
麻省理工学院(MIT)的一项最新研究表明,长期使用以ChatGPT为代表的大型语言模型(LLM),会对人类大脑的认知功能产生显著负面影响。实验发现,过度依赖LLM会削弱记忆编码、降低创造性思维,并导致“认知惯性”。这一结论首次通过脑电图神经成像和自然语言处理分析得到了数据支持。
研究团队招募了54名大学生分为三组进行对比实验,分别仅使用LLM、搜索引擎或纯大脑完成论文写作任务。结果显示,LLM组的大脑神经连接最弱,自主思考减少,论文内容也趋于同质化;而纯大脑组表现出更强的深度思考能力和个性化表达。
核心要点:
- LLM组中83.3%的参与者无法准确记住自己生成的内容,而纯大脑组这一比例仅为11.1%。
- 实验表明,长期依赖LLM会导致大脑从“主动生成信息”转向“被动筛选信息”,削弱独立思考能力。
- 切换回无辅助写作时,原本依赖LLM的参与者仍表现出较弱的神经连接和引用能力。
📌 情报分析
技术价值:高
该研究首次结合脑电图、NLP和行为科学方法,量化了LLM对大脑活动的影响,为理解AI工具与人类认知交互提供了新视角。
商业价值:一般
尽管研究揭示了潜在风险,但并未直接影响LLM的市场需求。企业可能需开发更平衡的功能设计,例如强化人机协作而非完全替代。
趋势预测:
未来3-6个月内,教育领域可能会出现更多关于AI工具使用的规范建议,同时相关研究将进一步探讨如何优化AI与人类认知的协同作用。
