当 AI 能让你"不学习也能通过考试",大学还剩下什么?
90%的大学生在用 AI,但这只是表象。真正的问题是:AI 正在揭示教育体系的根本性矛盾——当知识不再稀缺,当考试可以被技术绕过,学习本身的意义是什么?
Anthropic 最近做了期访谈,找来四位来自普林斯顿、伯克利、伦敦政治经济学院、亚利桑那州立大学的学生,聊校园 AI 的真实状态。访谈持续了近 40 分钟,没有宣传话术,都是真实的困惑、焦虑和思考。
这期访谈揭示了一个更深层的问题:AI 不只是在改变学习方式,而是在拆解整个教育体系的底层逻辑。
一个无法回避的现实
访谈开始,主持人问了个直接的问题:现在校园里对 AI 的氛围如何?
答案是:90% 的学生在用 AI。不是偶尔用,而是日常工作流程的一部分——总结讲座笔记、回答问题集、获取作业反馈、分析商业案例、做市场调查、完成财务研究。有些学生甚至用它完成测验,理由很现实:当你是研究生,同时做好几份工作时,你并不总是有时间。
但更有意思的是,虽然几乎所有人都在用,却没人知道规则是什么。有些课程明文禁止 AI,有些课程积极鼓励,大部分课程处于模糊地带。学生不知道界限在哪,教授也不知道该怎么管。这种状态被称为"灰色地带"——想用,又怕违规;不用,又觉得自己落后。
这种灰色地带最危险的地方不是学生可能违规,而是它阻止了真正有价值的讨论发生。学生无法公开分享 AI 使用的最佳实践,教授无法指导学生如何负责任地使用工具,整个学术社区陷入一种表面禁止、私下使用的尴尬状态。
而当规则无法被有效执行时,它就变成了筛选"会伪装的人"和"不会伪装的人"的工具。明文禁止但私下普遍使用的状态,不会阻止学生使用 AI,只会阻止他们公开讨论如何更好地使用。
AI 是一面镜子
访谈中有个观点很犀利:人工智能,尤其是学生如何使用人工智能,非常能说明这些动机。
这句话背后的洞察是:AI 成了一面镜子,照出你上大学的真实目的。
访谈把大学目标归纳为三类:第一,深入学习专业知识,掌握某个领域的深层理解;第二,为职业做准备,找到好工作,建立职业网络;第三,拓展人脉,享受社交生活,体验大学文化。每个学生对这三个目标的权重都不一样,而 AI 的使用方式精准地暴露了这些权重。
如果你只关心"通过考试"和"拿到学位",你会直接把 AI 的输出当作作业提交。这不是道德批判,而是现实——当技术让你可以用最小成本达到目标时,你为什么要绕远路?如果你的目标本来就是拿学位找工作,那用 AI 完成作业是完全理性的选择。
但如果你真的想学习,想深入理解某个领域,你会把 AI 当成对话伙伴。你会问它问题,让它解释概念,然后用自己的话重新表述。你会让它写初版代码,然后自己重构优化。你会确保在每一个环节,自己都真正理解发生了什么。
这种分化不只存在于不同学生之间,也存在于不同专业之间。人文专业学生往往选择退出 AI,因为他们的学习需要精读——仔细阅读原文、品味语言细节、理解作者意图。AI 破坏了这个过程,因为它提供的是总结和转述,而非原文的直接体验。工程和商科学生则大量使用 AI,因为 AI 降低了技术门槛,让没有计算机背景的人也能写代码、建网站、分析数据。
这种两极分化本质上是对"什么值得学习"的不同理解。对人文学生来说,阅读莎士比亚原文的体验本身就是学习;对工程学生来说,重要的是能否解决问题,而不是亲手写出每一行代码。AI 让这种差异变得更加明显。
工具还是拐杖?一个简单的判断标准
访谈中有个问题很关键:如何区分 AI 是工具还是拐杖?
学生们给出的答案惊人地一致:能否解释。
如果你无法解释自己创造的东西,无法说明 AI 在其中扮演了什么角色,那就是拐杖。如果你能像给五年级学生解释一样讲清楚,能给出低层次和高层次的解释,那就是工具。
这个标准看似简单,实则触及了学习的本质。费曼学习法的核心逻辑是:如果你不能用简单的语言解释一个概念,那你就还没有真正理解它。AI 时代的学习也是同样的道理——如果你不能解释 AI 帮你做的事情,那你就只是在"外包思考",而非"增强思考"。
访谈中提到一个有意思的例子:有学生开发了一个工具,可以把讲义幻灯片放进去,AI 会在每张幻灯片旁边生成类似教授的注释。这个学生说:"它之所以好用,是因为我已经提示它知道我想了解什么——幻灯片上某些事物的定义。幻灯片有时候很抽象,缺乏背景信息,需要在旁边添加上下文。"
关键在于"我已经提示它知道我想了解什么"。这个学生清楚自己的知识缺口在哪,知道需要什么样的帮助,然后主动引导 AI 提供这种帮助。这是工具。如果是直接把幻灯片扔给 AI,让它"帮我总结这节课",然后照着背,那就是拐杖。
区别在于主动性和理解。使用工具的人知道自己在做什么,控制着整个过程。使用拐杖的人把控制权交给了技术,自己变成了被动接收者。
学校的滞后不是反应慢,而是本质上无法应对
访谈中提到了一些学校的尝试。伦敦政治经济学院的一门必修课,开始指导学生如何使用 Claude——和它对话,赋予它不同角色,然后要求学生提交对话记录,看他们如何与 AI 互动。亚利桑那州立大学的职业管理中心建了提示库,为不同场景提供提示模板。这些都是好的尝试,核心思路是:不是禁止 AI,而是教学生负责任地使用。
但这只是少数。大部分学校还在争论"该不该允许学生用 AI"。有些教授说可以用,但要在作业里注明使用方式;有些课程直接禁止;还有些干脆不提,默认学生不会用。没有整合框架,没有统一标准,整个体系处于混乱状态。
更深层的问题是:这个问题本质上无法靠规章制度解决。
传统教育的监管逻辑是:学校设定规则,学生遵守规则,违规者被惩罚。这个逻辑成立的前提是"违规行为可以被检测"。但 AI 打破了这个前提。
你可以禁止学生在提交作业时使用 AI,但你无法监控学生在思考过程中是否用了 AI。你可以用 AI 检测工具,但这些工具的准确率远没有达到可以作为惩罚依据的程度——误判率太高,而且学生会很快学会如何绕过检测。更重要的是,从根本上说,你无法区分"学生在 AI 帮助下完成的高质量作业"和"学生独立完成的高质量作业",因为好的 AI 使用本来就应该是无缝的。
访谈中有句话说得很直接:从根本上说,不会有任何规章制度能改变学生使用 AI 的方式。责任在学生手中。这不是推卸责任,而是现实。
当技术让"不学习也能通过考试"成为可能,学校面临的不是一个管理问题,而是一个存在性问题:如果考试无法证明学习,那学校存在的意义是什么?
教育体系的底层逻辑被打破了
这个问题触及了教育体系的根本性矛盾。
传统教育建立在几个核心假设上:第一,知识是稀缺的,需要专门的机构(学校)和专业人员(教授)来传授;第二,学习成果可以通过考试来衡量;第三,学位证明了你掌握了某个领域的知识,因此有资格从事相关工作。
AI 逐一打破了这些假设。
知识不再稀缺。YouTube 上有免费的斯坦福课程,Claude 可以随时回答你的问题,GitHub 上有无数开源项目可以学习。你不需要去学校才能接触到知识,甚至不需要付费订阅就能获得基础的 AI 辅导。
考试无法衡量学习。当 AI 能够完成大部分考试题目,考试就从"衡量理解程度的工具"变成了"衡量是否会用 AI 的工具"。这不是说考试完全无用,而是说它不再能准确区分"真正学会的人"和"会利用工具的人"。
学位的价值在下降。当雇主意识到学位无法保证候选人真的掌握了相关知识,他们会更看重实际能力的证明——作品集、项目经验、实习表现。学位从"能力证明"降格为"基础门槛"。
当这些假设被打破,教育体系的价值主张就需要重新定义。
访谈给出了一个答案:大学的价值从"传授知识"转向"提供环境"。这个环境让你可以犯错、可以探索、可以和其他人碰撞想法。你可以和室友花周末做"毕业前愿望清单",在 hackathon 测试"可能很蠢"的想法,和教授争论,和同学讨论,在失败中学习而不必承担职业生涯的风险。
访谈中提到的学生项目很能说明这一点——"自动选课提醒"、"空教室查找器"、"毕业愿望排行榜"。这些项目技术上都不复杂,很多创作者甚至没有计算机背景。但它们源于真实的人类情感:对错过的恐惧、对便利的追求、对大学生活的珍惜。
技术门槛降低后,重要的不再是"你会不会写代码",而是"你想解决什么问题"。大学提供的是一个可以自由探索这些问题的空间,一个可以把想法变成现实、然后从失败中学习的环境。
AI 能帮你完成作业,但不能替你度过这段"可以犯错、可以探索"的时光。
就业市场的悖论
访谈后半段聊到就业,揭示了另一个悖论。
学生用 AI 写简历,公司用 AI 筛简历。整个招聘周期变成了对着屏幕说话——先是对着 AI 写求职信,然后对着录像回答问题,最后收到 AI 生成的拒信。从提交简历到收到拒信,可能只需要 15 分钟。效率很高,但人性很少。
这创造了一个"AI 对 AI"的就业市场。学生训练 AI 如何写出"好的"简历,公司训练 AI 如何筛选"好的"候选人。真正的人类在这个过程中的作用越来越小。对着屏幕说话没有化学反应,无法展现那些难以量化但很重要的品质——幽默感、应变能力、团队协作的微妙之处。
但悖论的另一面是:AI 熟练程度本身成了新的竞争力。四大咨询公司以前招通才型 MBA,现在专门找具备 AI 能力的 MBA。如果你懂得如何将 AI 应用于不同行业,你就是他们的首选候选人。
悖论在于:AI 让就业市场更冰冷,也让就业市场更看重 AI 能力。你无法逃避,只能学会有效使用。
这又回到了那个核心问题:什么是"有效使用"?不是会用 ChatGPT 写邮件,而是能够识别哪些问题适合用 AI 解决,能够设计提示词来引导 AI 产出你需要的结果,能够评估 AI 输出的质量并进行必要的修正。
这种能力不是通过禁止 AI 来培养的,而是通过大量的实践和试错。这也是为什么那些主动拥抱 AI、建立 Claude Builder Club、组织 hackathon 的学校,正在为学生提供更有价值的教育——他们让学生在相对安全的环境中,学习如何与 AI 协作。
责任的转移
访谈最核心的洞察可能是这句:当技术能让你"不学习也能通过考试"时,学习本身的意义变成了每个人需要自己回答的问题。
这是责任的转移。从学校转向学生,从规则转向自觉,从外部动机转向内部动机。
传统教育的动机是外部的:你需要通过考试来拿学位,需要学位来找工作。这个外部激励体系推动着学生学习。但当 AI 让你可以不学习也能通过考试,这个激励体系就失效了。
剩下的只有内部动机:你真的想学吗?你真的对这个领域感兴趣吗?你真的想深入理解,还是只想拿个学位?
访谈中有个细节很有意思。有学生提到,读研究生有不好的一面——你同时做好几份工作,没有时间,所以有时候会用 AI 快速完成测验。但他接着说:读研本应该是你拓展批判性思维的时期,是你展现更果断一面的时候。他意识到了矛盾,但选择了效率。
这不是道德批判。在现实压力下,效率往往比理想更重要。但这个选择揭示了一个事实:当外部压力(完成测验)和内部动机(深入学习)冲突时,很多人会选择前者。
AI 让这种冲突变得更加尖锐,因为它让"应付考试"变得极其容易。在没有 AI 的时代,即使你只想应付考试,你也必须学习一些东西才能通过。AI 取消了这个中间环节——你可以完全不学习也能通过。
这迫使每个人直面那个问题:你到底为什么要上大学?
如果答案是"为了拿学位找工作",那用 AI 完成作业是完全合理的。如果答案是"我真的想学习这个领域",那你需要主动抵抗 AI 带来的捷径诱惑。
学校无法替你做这个选择。规则无法强制你产生内部动机。这是你自己的责任。
技术不会等你准备好
访谈最后有个态度贯穿始终:"我们会想办法解决的。"
学校规则跟不上?先用起来,再告诉学校什么有效。AI 可能被用来作弊?慢慢学会负责任地使用。就业市场变了?适应新游戏规则。
这不是盲目乐观,而是现实主义。技术已经在这里了,它不会等你准备好才开始改变世界。你可以选择抵抗,也可以选择适应,但你无法选择让时间停止。
这一代学生和 AI 的关系不是恐惧,不是盲目拥抱,而是在混乱中摸索,在试错中学习。
他们在 Claude Builder Club 做的那些项目——技术上不复杂,但解决真实问题。他们在 hackathon 上尝试的那些想法——可能很蠢,但至少在尝试。他们在课堂上的困惑——规则不清楚,但至少在思考。
这种"边做边学"的姿态,可能比任何规章制度都更能帮助他们适应 AI 时代。
凯文·凯利在《科技想要什么》里提出"technium"概念:技术作为一个整体,似乎有自己的意志,想要变得越来越强大。访谈中有个观察很呼应这一点:过去两年,不管 AI 需要什么才能继续发展,它就能得到。核能态度的转变、太空数据中心的讨论——每当有什么瓶颈可能减缓 AI,障碍就会被移除。
但更准确的说法可能是:学生需要什么,就会创造什么。
AI 只是工具。决定未来的,是这一代学生选择如何使用这个工具——是逃避思考,还是增强思考。是用它来应付考试,还是用它来探索世界。是把它当拐杖,还是当工具。
这个选择,学校管不了,只能他们自己决定。
而从这期访谈来看,至少有一部分学生,正在认真思考这个问题。这可能就够了。