想象这样一个场景:学生们对着笔记本电脑疯狂刷题,屏幕上显示的练习正确率飙升,他们自信心爆棚。然而,当真正的考试来临时,他们却惨败而归。这并非虚构的故事,而是一项大规模研究刚刚证实的、没人愿意听到的残酷事实:那些依赖 ChatGPT 学习的学生,考试成绩不仅没有提高,反而显著下降。
令人不安的数据:自信满满的“学渣”
宾夕法尼亚大学的研究人员进行了一项涉及近 1000 名高中生的实验。他们让一组学生在练习数学时使用 ChatGPT,另一组则完全靠自己。
结果看似符合直觉:
练习阶段:有 AI 助攻的学生,正确解决的练习题比无 AI 组多了 48%。毕竟,有个超级大脑在帮忙,谁不会做题呢?
但接下来的转折让人大跌眼镜:
考试阶段:当研究人员收走 ChatGPT,让所有学生参加同样的测试时,使用过 ChatGPT 的学生分数比自学组低了 17%。
这不是细微的差距,而是显著的滑坡。那些坚持用“老办法”(课本和笔记)死磕的学生,实实在在地碾压了 AI 辅助组。
最可怕的是什么?使用 ChatGPT 的学生对此一无所知。
在问卷调查中,他们坚信自己学得更多,感觉更自信,认为自己考得不错。他们错了,而且错得离谱。研究人员将这篇论文命名为《生成式 AI 可能损害学习》,并称其为“警示故事”。用大白话说就是:这事儿很糟糕,你必须重视。
“我只是用它来学习,不是作弊!”
这是每个参与研究的学生的想法,也是无数正在读这篇文章的学生的想法。
但数据揭示了真相:当研究人员分析学生输入 ChatGPT 的内容时,模式清晰得令人发指。大多数学生并没有问“帮我理解这个概念”或“第一步该怎么做”,而是直接输入:“给我第 4 题的答案。”
ChatGPT 很乐意照办。但这里有一个被忽视的致命陷阱:
- 准确率并不高:ChatGPT 给出的答案只有约 50% 是完全正确的。
- 解题步骤错误率高:其逐步解题的过程有 42% 是错误的。
这意味着,学生们不仅在抄写错误的答案,而且在完全没有建立起辨别对错能力的情况下,盲目地接受了这些信息。
研究人员用航空业的“自动驾驶”做了个绝妙的比喻:当飞行员过度依赖自动驾驶时,一旦系统故障,他们就失去了手动飞行的能力。这也是 FAA(美国联邦航空管理局)要求飞行员减少使用自动驾驶的原因。
学生和 AI 的关系正是如此:你外包了“思考”的过程,而“思考”恰恰是学习的核心。
“那把它当作私人导师总行了吧?”
研究团队也测试了这种“理想情况”。他们设置了第三组学生,使用一个经过改良的 ChatGPT 版本。这个版本被设计成“导师模式”:只给提示,不给直接答案;引导思路,不直接甩出结果。
结果如何?
练习阶段:这些学生简直杀疯了。他们正确解决的题目比无 AI 组多了 127%(超过两倍)。听起来很棒,对吧?
考试阶段:他们的分数与完全没用 AI 的学生一模一样。
请让这个数字在你脑海中沉淀一下:
- 最佳情况(精心设计的提示型 AI 导师):效果等同于你自己啃课本。
- 普通情况(直接问答案的 ChatGPT):让学生变得明显更差。
如果你花钱买了一个所谓的“AI 辅导工具”,结果只是达到了和免费课本一样的效果,甚至可能因为依赖普通 AI 而退步,这笔买卖真的划算吗?
这不仅仅是孤例:全球数据都在拉响警报
如果这只是一个随机实验,或许还可以忽略。但来自世界各地的数据正在堆积如山:
过度自信的陷阱:芬兰阿尔托大学和德国慕尼黑大学的研究发现,使用 AI 解决问题的人会持续高估自己的表现。更讽刺的是,越是精通 AI 的人,越容易过度自信。擅长使用工具并没有帮助他们判断自己的能力,反而让他们对自己产生了错误的评估。
认知卸载(Cognitive Offloading):大多数人只向 ChatGPT 发送一次提示,复制答案,然后继续下一题。没有追问,没有核查,没有质疑。大脑直接把工作扔给机器,然后“下班”了。
批判性思维下降:一项针对 666 名参与者的研究发现,频繁使用 AI 与批判性思维能力之间存在显著的负相关。微软的研究进一步指出,这种现象在年轻人(17-25 岁)中最为严重。
分数的通货膨胀与信号失效:以色列一所大学追踪了 36,000 名学生。在允许使用 AI 的课程中,所有人的分数都提高了,尤其是差生。结果是:优生和差生的差距消失了,大家的分数看起来都差不多。这意味着分数不再具有区分度。对于试图通过成绩来判断求职者能力的雇主来说,信号变成了噪音。
为什么这比你想象的更重要?
这直接关系到你的未来生计。
就业市场正在变得前所未有的艰难:
- 初级技术岗位的招聘在五年内下降了 50%。
- 37% 的经理表示,他们宁愿使用 AI 也不愿雇佣应届毕业生。
- 仍在招聘的公司变得极其挑剔。
他们在挑选什么?
他们在寻找真正理解事物的人。不是那些能让 ChatGPT 输出正确答案的人,而是那些能解释推理过程、能解决新颖问题、能发现 AI 错误的人——因为 AI 经常会犯错。
在这个世界里,那些花了四年时间让 ChatGPT 替自己写作业的学生将面临巨大危机。不是因为他们是“作弊者”,而是因为他们从未建立起雇主现在急需的核心技能。技术面试不在乎你作业得了 A,而在乎你能否一步步推导出解决方案并解释其原理。
残酷的讽刺在于:这些学生甚至不知道自己身处险境。就像研究中那样,他们感觉良好,自信满满。这种“过度自信”不是系统的漏洞,而是这个问题的核心特征。你不知道你不知道什么,而 AI 让你更加确信你什么都知道。
给在校学生的生存指南
这并不是要呼吁“禁止使用 AI”。那艘船早就开走了。AI 存在且强大,假装它不存在才是愚蠢的。
关键在于你如何使用它。目前,大多数学生的使用方式恰恰是在伤害自己。
“粘贴问题,复制答案”法:这是在主动自毁。不仅在道德上,更在学术上。你在学得更少,忘得更快,却对并不拥有的知识更加自信。这是经过数百人对照实验证实的事实。
“仅求提示”法:这还算凑合。它不会让你变差,但也不会让你变得更好。如果你为此付费,不如直接看书。
真正有效的方法是:以一种强迫你思考,而不是跳过思考的方式使用 AI。
《哈佛公报》引用了一位研究人员的精辟总结:
“如果你认为上学是为了‘产出结果’,那你可能会觉得 AI 帮你产出结果没问题。但如果你上学是为了‘学习’,请记住,结果只是学习发生的载体。”
核心区别在于:AI 是让你变得更聪明了,还是仅仅让你的作业看起来更聪明了?考试成绩已经证明了这两者的天壤之别。
即将到来的大分化
未来几年,学生群体将出现残酷的分化:
第一类学生(拐杖型):他们将 AI 当作拐杖——粘贴问题、复制答案、提交 AI 写的文章。这些人将在大学面试、求职面试或任何无法打开聊天窗口的场合撞上一堵墙。由于他们的平时成绩看起来还不错,他们甚至看不到这堵墙的到来,直到为时已晚。
第二类学生(工具型):他们将 AI 作为真正的工具——用来检验理解、深入探索话题、在卡壳时获得特定步骤的指引,但艰难的思考过程依然由自己完成。这些人将具备不成比例的优势,因为他们建立了真实的技能,并懂得如何与 AI 协作。
这两类人之间的差距将是巨大的,并且会在最关键的时刻(考试、面试、入职)暴露无遗。
如果你想成为第二类人,策略很简单但很难执行:使用 AI 的方式必须是让你去做工作,而不是替你做工作。
像 学搭子 这样的工具正是为此而生——它们的 AI 会向你提问,而不是回答你;它们强迫你解释推理过程,而不是给你可以直接抄袭的解决方案。这不是为了给你的生活制造困难,而是因为研究证明,这才是唯一有效的学习路径。
现在就想通这一点的学生,将拥有巨大的优势。而那些想不通的人,终将在某次考试、某场面试或某份工作中痛苦地发现:他们花了几年时间感觉自己学到了一切,实际上却一无所获。
参考来源
- Bastani, H. et al.《生成式AI可能损害学习》宾夕法尼亚大学/沃顿商学院,SSRN,2024年7月。
- Hechinger Report.《使用ChatGPT作为学习助手的学生考试成绩更差》2025年1月。
- Wharton / Knowledge at Wharton.《没有防护措施的生成式AI可能损害教育》2024年8月。
- 阿尔托大学/慕尼黑大学.《AI使用让我们高估自己的认知表现》发表于Computers in Human Behavior,2025年10月。
- Hausman et al.《大学中的生成式AI:分数上升,信号下降,技能波动》CEPR VoxEU,2025年。
- Harvard Gazette.《AI是否在钝化我们的思维?》2025年11月。
- Gerlich (2025).《频繁使用AI工具与批判性思维能力》arXiv综述论文引用。
- WBUR / Cognoscenti.《AI让我们高估自己的知识和表现》2026年1月。
- Education Week.《学校中AI使用的增长伴随着巨大的负面影响》2025年10月。
- NSTA.《思考还是不思考:AI对批判性思维技能的影响》2025年。