Ai代理时代:教育正在从“问答”走向“协作”
引言
如果你问一个学生“你用AI做什么?”,十有八九的答案是“问它问题”。写作业卡住了?问AI。不懂公式?问AI。写作文没思路?还是问AI。
这没什么奇怪的。过去三年,我们与AI的交互方式几乎被聊天框垄断了。打开ChatGPT、Claude或Gemini,输入问题,等待回答——这就是大多数人对“使用AI”的全部认知。
但2026年的AI世界已经悄悄发生了根本性的变化。宾央沃顿商学院教授Ethan Mollick在3月底的一篇文章中指出:聊天机器人界面本身就是阻碍我们充分释放AI能力的最大障碍。
从“对话”到“代理”:范式之变
Mollick将当前的AI生态拆解为三个层次:模型(Model)、应用(App)和“缰绳”(Harness)。
模型是AI的大脑,比如GPT-5.2、Claude Opus 4.6、Gemini 3。应用是你实际使用的产品,比如chatgpt.com、claude.ai。而“缰绳”才是关键——它是让AI能够使用工具、采取行动、自主完成多步骤任务的系统。
同样是Claude Opus 4.6,在聊天窗口里和它在Claude Code里是完全不同的体验。前者给你一段文字回答,后者可以自主研究、编写、测试代码数小时。
这就是2026年AI教育的核心命题:我们还在用2014年的聊天方式,去使用2026年的代理工具。
聊天框的认知税
Mollick引用了一项新研究:研究人员让一组金融专业人士使用GPT-4o完成复杂估值任务,并逐轮测量他们的认知负荷。结果令人深思——
虽然使用AI确实提升了生产力,但聊天界面本身带来了巨大的认知成本。AI用大段文字淹没用户,主动提供三个你没问的话题,对话一旦混乱就无法恢复。受伤害最大的反而是经验较少的工作人员——恰好是本可以从AI中获益最多的人群。
把这个发现平移到教育场景:当学生用聊天框求助时,他们面临的是同样的困境。AI的冗长回答、发散性建议和缺乏结构的信息呈现,让本就基础薄弱的学生更加困惑。
教育的“缰绳”问题
那么,什么才是适合教育的“缰绳”?
目前编程领域已经有了成熟的答案——Claude Code、OpenAI Codex等工具为开发者提供了完整的代理工作流。但教育呢?
有几个值得关注的尝试:Khanmigo(Khan Academy的AI导师)试图将聊天式AI限制在教育场景中,但它本质上还是聊天界面。Google的NotebookLM允许学生上传资料并在其中检索和研究,这更接近“缰绳”的概念。而Anthropic最新的Claude Dispatch让你用手机发消息给桌面上的AI代理,让它自主完成复杂任务——想象一下学生用它来管理长期项目。
但这些都还不够。教育领域的“缰绳”不应该是通用的工具适配,而是需要为学习场景专门设计。
给教育者的建议
1. 区分“问答”和“协作”两种AI使用模式。 问AI一个问题属于消费行为,让AI代理帮你完成一个项目才是创造行为。
2. 教学生选择正确的“缰绳”。 写论文用NotebookLM管理资料,学编程用Claude Code,做项目规划用专门的代理工具——不同任务需要不同界面。
3. 关注认知负荷。 研究发现聊天界面会让初学者更困惑。在课堂引入AI时,应先教会学生如何高效地与AI交互,而不是直接让他们“问AI”。
4. 拥抱代理,而不是回避它。 封禁AI已经不现实了。与其禁止,不如教会学生像管理一个团队一样管理AI代理——分配任务、审核结果、迭代改进。
结语
AI教育的下一个前沿不是“要不要用AI”,而是“怎么用好AI”。从聊天框到代理工具的转变,表面上是界面更新,实质上是交互范式的革命。当学生不再只是问AI问题,而是学会与AI协作完成复杂任务时,真正的AI素养才算建立。

