谷歌让我们忘记答案,AI让我们忘记思考?错了
发布于: 2025年8月12日
前些时间,21 岁的 Roy Lee,用一行代码把自己从哥大教务处的退学邮件,变成硅谷风投的 1500 万美元支票。
这款名叫 Cluely 的桌面 AI 只做一件事:在面试、考试、销售通话乃至约会时,偷偷把正确答案贴在你的屏幕上。
「我们要作弊一切」
当 Roy Lee 把这句标语贴上官网,用矩阵号疯狂在网络上做营销,直接做到了 ARR 300 万美元,后来一周内直接翻倍到 700 万。镜头切回三个月前,两名 21 岁哥大辍学生,用 Cluely 在亚马逊技术面试的共享屏上默写答案,随即被学校停学。
尽管这个人和他的软件有很大的争议,但是他的行为以及目前取得的商业成绩,对当前形态的教育回了一记重拳,也引起了我对这个时代的教育或者我们个人学习的一些思考。
现在这个时代,我们培养人才的方式是否还合适?我感觉,我们更像是在训练学生在标准化流程中寻找标准答案。
cluely 的出现,像一面镜子,把我们依赖知识记忆和应试技巧的现状照的一清二楚。
::当「作弊」被技术赋能,甚至堂而皇之地成为一门生意时,我们是否也该重新审视:什么才是真正的学习?我们究竟希望学生掌握什么?::
或者说,当答案唾手可得时,学习应该转向什么?
如果找答案(检索、抄解法)已经比自己推理更容易、更快,那么教学与个人学习就不应该再把“记住答案”当核心,而要把重心放到怎么把问题拆开、怎样选工具走一条可复用的解题路径、以及如何判断信息是否靠谱上。
记忆 vs 调用
自 2011 年“谷歌效应”实验证实人们在互联网上倾向“记路径、忘结果”后,信息检索早已成为默认技能,但是很多考试仍然把“记得多少”当硬指标。
没必要去记忆「19888*20345」,因为你可以用计算器。你不需要记住去某个陌生城市的所有公交线路,只需打开导航App即可。你可能记得小时候家里的座机号,但现在很少有人能背出朋友的手机号。
在信息化、工具化高度发达的今天,记忆的重点已经从「记住所有细节」转向「知道去哪里、如何高效获取和应用信息」。
原本我们需要记住主体 A 和它的信息 a,如果是 A、B、C 三个主体,那我们就要记住六个记忆单元。
但是有了工具之后,我们有了 search tool 之后,我们只需要记住三个主体,用 search tool 直接找出对应的信息。
好吧,再深究一点,你也可以再算上「search tool」的功能。这个时候又可以分情况来考虑,比如说三个信息所使用的记忆资源其实比记住「search tool」有什么用途要少肯定是直接记了,但是一旦相同路径的操作多了,肯定不如记它能干什么划得来。
我想我们很多时候做的很多事,都是在后者的情况下。
这种情况,我们需要记什么——主体和工具用途,而不用所有信息都塞进大脑。主体信息,或者说引子,最基本的一旦缺失,你连提问和判断都做不到。
就像初高中学化学一样,你有催化剂没有反应物,怎么也是得不到最终的产物的。
有三类信息,我觉得是必须要内化的(当然具体的情况还需要你自己经验总结):阈值概念、高频基础技能、安全/伦理“红线”。
阈值概念,就是那些一旦掌握就能「看懂整幅地图」的转折点,不懂这个即使你去搜一些学习资料或者让 AI 给你生成什么你都看不懂。很基础的一些比如经济学中的「机会成本」、编程里的「递归」等等。
高频基础技能是在任何复杂任务中都被反复调用,外包成本远大于记忆成本的。我们日常用中文还是英文都要遵循一定的语言架构或者语法,这些都是我们记在脑子里的,不能我们在说的时候还要去查资料。
第三是安全伦理相关的知识,违反了就是高风险,不能依赖临时检索。比如在路上开车,红绿灯的时候你不可能要查一下才知道是要停车还是要开。
其实我们这主要讨论前两种,第三种你要是记不住,那…我也没办法 hhh。
阈值概念:这一步不跨,后面全白搭
就像汽车的点火钥匙——没有它,整台发动机(庞大的知识与工具)只能空转;一旦拧下去,所有部件立刻联动、产生驱动力。
我最近帮别人用 Gemini 生成 AI HTML 小程序,大家对于 HTML、API 的理解就是一道“门槛”。你让他们用AI生成网页处理Excel,结果他们:
- 以为 HTML 文件的本地地址等于网址链接(其实是本地文件)
- 让 AI 生成带 AI 功能的网页,却完全没理解“API 如何让网页获得 AI 功能”
最终,AI反复改代码也无济于事, 因为他们根本没明白 HTML 是一个文件,大家以为网页都是可以通过链接分享给别人的,但其实这里只是本地的一个文件。
第二就是大家没有意识到 AI 的一个边界。举个例子,我跟他们说 Gemini 的 Canvas 可以帮助我们构建一个网页,大家可能就以为 AI 可以构建各种功能的网页,甚至可以加入 AI 功能。当然,Gemini 确实可以内置一个AI 功能(因为 gemini 里面可以提供 api key),但是一旦把这个网页下载下来,它就没有 AI 功能了。
因为 AI 功能需要有一个 AI 模型,除非你是本地模型。如果你要接入网络上的模型,就需要通过 API。大家不知道 API 这个东西是需要自己去获取,自己去申请的,而不是 AI 能直接给到的。
但是我们不断地跟 AI 说让它去生成有 AI 功能的网页,它不会认为用户会出错,只会觉得自己的能力不够,所以它会不断地去尝试,不断地去尝试。因为它根本无法提供这个 API key,所以它怎么尝试也是于事无补。
这样就陷入了一个循环,用户以为AI很笨,但其实只是没有用对,因为它根本不明白 AI 的能力边界。
除了用户对 AI 能力边界的理解,更关键的两个阈值概念其实是 HTML 和 API。
这两个作为连接点的知识,是所有 AI 网页应用的基础底层结构。你对 HTML 文件的理解,决定了你能不能直观地理解网页的本质,以及「本地vs线上」的区别。
很多人以为HTML文件你打开上面的一个地址,他以为就是网址。实际上,这只是你本地的这个HTML的一个地址。你理解它是静态标记文档,你才能分辨出本地打开和在线功能有什么不同。
你如果连这个基本的概念都没有,后续你像让 AI 去帮你做网页,比如说部署到网页上,就算你 vibe-coding 把网页写出来了,只要涉及外部智能服务,几乎都绕不开「API 调用」这一环。
HTML和API 属于「跨过去就全明白,不跨就寸步难行」的认知拐点。这和只知道「AI有局限」不同,后者是一种态度/意识,前者则直接决定你能不能创造、组合和迁移知识。
阈值概念该怎么定义
所谓「阈值」,意指这些概念如同一道必须跨越的门槛——它们打开了一种全新的思维方式,如果不跨过去,学习者的理解将停滞不前。
换言之,阈值概念是掌握某一领域所不可或缺的核心理念,往往概念上具有挑战性,学生在理解时会感到吃力,但一旦真正领会,其认知将发生质的飞跃。
教育学者 Meyer 和 Land 指出,阈值概念通常具备几个显著特征:
- 变革性:理解它会带来认知上的剧变,仿佛打开了一扇新世界的大门,改变你对该领域的看法。
- 不可逆性:一旦掌握,就很难再回到未掌握前的思维状态,即使想忘记也不容易。踏过此门槛后就「再也回不去了」。
- 融贯性:它能将原本零散的知识点融会贯通,让学习者看到此前未曾察觉的内在联系。理解了阈值概念后,许多相关知识都会一起「豁然开朗」。
- 界限性:阈值概念往往界定了学科的边界。只有“圈内人”(掌握该学科基础的人)才真正理解这些概念的含义,它标志着新手与熟练者的分水岭。
- 棘手性:学习者普遍认为这些概念不好啃,往往带有反直觉或隐晦难解的成分。Meyer 和 Land 借用了教育心理学家 Perkins 的术语,将其形容为「麻烦知识」(troublesome knowledge)——即那些让人感到费解、容易误解或与原有认知冲突的知识。正因为如此,初学者在碰到阈值概念时常常会感到迷茫甚至抗拒。
阈值概念因学科而异,但各领域的教育者都能列举出几个典型例子。
在经济学中,「机会成本」常被视为一个阈值概念。初学经济时,许多人只关注金钱等显性成本,而机会成本要求我们意识到放弃的选择所带来的隐性代价。
这一理念有些反直觉:毕竟我们看不见摸不着“错失的机会”的价格。所以学生起初往往难以理解,甚至误把机会成本当作可有可无的概念。
一旦真正领悟了机会成本,他们看待决策的方式将被彻底改变——不再局限于眼前得失,而是学会权衡看不见的代价。这种观念转变将使后续学习如投资分析、资源配置等变得更加透彻。
计算机领域,前面提到的「递归」就是备受公认的阈值概念之一 。递归指在定义中调用自身的问题求解方法,对于初学者来说,其逻辑显得循环又抽象,仿佛「自己套自己」的谜题。
可能有人在遇到递归时会怀疑自己的智商,认为「为什么我就是想不明白?」。
事实上,这并非愚笨,而是递归的观念本身就很高阶——需要跳出线性思维,接受函数可以调用自身这样的自指结构 。很多学生会经历漫长的卡壳期,不得不反复思考、调试、请教他人。当他们终于恍然大悟的那一刻,递归的妙用一下子清晰起来,此前困扰已久的问题也迎刃而解。
缺乏阈值概念会导致我们的学习进入瓶颈,我们可能会出现一种路径依赖的现象,因为绕不开这个坎,所以只能原地打转,反复采用低效甚至是错误的方法,收效甚微。也就是说,可能会有一些无效操作。
举个很简单的例子:我们在编程的时候会用到循环这个概念,让你去写一加到一百,不懂这个概念的人就会写一到一百。会用循环的人,他们就直接去定义这个循环的范围,然后每一次这个数就可以不用硬生生地去写「一加到一百」。 即使你不会写代码,但是你懂这个概念你也可以让AI去用循环帮你写。(当然了,现在的AI很高级,你让他帮你去算1到100,它自己也会写循环。这里只是举个例子。)
这种徒劳无功的尝试不仅浪费时间,还可能挫伤学习积极性。
阈值概念之所以难,是因为它要求学习者跳出现有思维舒适圈,去建立全新的理解框架。在跨越门槛之前,你或许会感觉“雾里看花”,怎么努力都不得要领。
但一旦跨越之后,这种豁然开朗的转变将极大提升你的学习效率,使你在学科领域中进入一个崭新的阶段。
如何发现阈值概念
现在知道了阈值概念是一个很重要的知识点,但是我们怎么去判断这个知识点它很重要或者我们怎么去发现它?
在我们进入到一个新的领域的时候怎么去发现这个重要的知识点?比如说我是一个毫无编程基础的人,我想要用 AI 去进行一个vibe-coding,那我需要去了解什么?
教科书
第一个方法是去看一些教科书,或者是官方的一些教材,比如说某某领域的导论——心理学导论计算机导论这种,从这些教科书里面去发现某一个领域的阈值概念。
首先看这些书的目录,主要是为了了解这个领域的大致脉络,帮助你理解它。例如,全栈相关的书籍会通过几个章节帮你把整个全栈项目相关技能讲清楚。后面你去开发或者做项目的时候,你就知道自己缺了哪些东西,或者某个部分具体需要在哪里改动。
回到如何查找「阈值概念」,许多教材书籍在每个章节末尾或书籍末尾通常会有关键词表或“本章核心要点回顾”,你可以重点看这部分。你也可以在书中通过扫读能找到的、出现频率最高、反复出现或加粗、打星号的概念,这些可能就是该领域的一些阈值概念。
我一般就只会看书籍前面的部分,因为前面都是比较基础的部分。首先我只是想利用 AI 去帮助我完成这个领域的一些任务。当然,这个项目的进行过程中我也会对它的了解会更深,可能慢慢地就去研究这个领域。但在初期的时候我只需要去了解“阈值概念”,帮助我去跨入这个领域,然后我再在这个领域慢慢成长,不过这些都是后话。
你在看基础的里面,把「阈值概念」以及这些概念的一些关系、定义搞清楚之后,你就可以去用 AI 做一些事情。随着你和 AI 交流得多,你慢慢有些问题也会慢慢浮现出来,然后你再去进行一个学习。
这个方法比较适用于那些纯小白,对这个领域一点也不了解,并且比较有耐心的人。如果你是一个比较懒惰的人,或者像我一样比较急的人,想要赶快把这个事情完成,那你就直接借助 AI,去帮助你摸索出来这个领域的阈值概念。
gemini 的 deep research
这里我们借助的工具是谷歌家 Gemini 的 Deep Research,而不是 OpenAI 的,它的优势就在于它能够利用它们自家的搜索强项,帮你直接调研上百个网页的内容给出一个文档。而且随着现在 Gemini 模型的能力提升,调研出来的文档质量是比较好的,原来它只是在广度上有优势,现在它在深度上也有的一夸。
当然,你不能一上来就直接用 Deep Research 帮你调研什么。 你要先确保自己的需求是清晰的,就比如说,你想要网站是怎么做的,你不能跟 AI 说“我想要做一个网站,我怎么做?”
就像这样给了你一个这个文档的研究大纲,纯小白可能还是会看不懂,什么叫 HTML、CSS、JavaScript,以及域名注册、网络托管又是什么东西,VPS又是什么东西?这样问 AI 还是会给出很多那种专业性的名词给你,作为一个纯小白,还是会很懵。
你这个阶段还是在学习阶段,所以先不要让 AI 直接去告诉你解决方法,因为就算告诉你解决方法,你也是看的一知半解。
这确实是你的真实需求,为什么 AI 还是会给你说一些专业名词?
因为它根本不知道你对这部分知识的了解情况,不知道你是小白还是新手,它就会把一般的这个方法告诉你。所以就需要你去做一个自我介绍,我是一个小白,我想要学习去做一个网站,想要学习利用关键的知识点配合 AI 去做网站,我需要了解哪些关键的阈值概念?
你要给他一个语境,它了解你越多,他就越能知道你的痛点是什么,去结合你的一个需求,去给你一个相应合适的回应。就像上面这个回答,我们去给它介绍了一下我的一个身份、目标、需求,它就会结合你目前的一个认知、学习情况,就给你介绍相应的知识点。
比如说,这里很基本的它会先给你介绍网站工作的基本原理、一些定义和区别。然后 HTML、CSS、JavaScript 给你介绍一下,以及一些核心的概念,服务器端语言、数据库的用途、API 的角色等等。它会教你怎么去用 AI 生成代码,怎么用 AI 去调试代码和解释复杂的概念,以及你的代码编写到网站上线的一个完整的开发流程、版本管理等等,这些它都会给你一一地去介绍。
这些基本的概念都是你要上线网页需要的关键的东西,它都会给你介绍的。不需要你有任何基础,它是一步一步地先把工作原理给你介绍,然后从前端、后端、数据库再到上线,一步一步来。
这里还有个高阶的用法,去用 Deep Research 去调研资料然后写提示词。比如说我现在想让 AI 解答我一些关于某个股票公司的信息,我会让它去调研全网的一些这个资料啊、书籍,以及一些这种研究报告,去分析股票调研分析所需要用的技巧、所需要的思维和考虑的一些方面。
它就会整理成一个文档,然后你再通过这个文档用 AI (我一般是 claude),去写一个提示词,然后你再用这个提示词去给到通用 AI。通过提示词和你喂它的一些资料,它成为一个比较专业的股票分析师。
因为你要是单纯喂它资料的话,它的回答风格还是一个通用的 AI 去根据书籍里的东西去回答你。它讲话的风格,它思考的一个逻辑不会像一个专业的股票分析师说话那样去跟你说。
所以你还是要有提示词,去让它以那种风格以及思维跟你说。
混圈子
还有一个方法,是混进他们的圈子、进入社区,挖掘别人的困惑。通过他们的困惑,去总结出一些阈值概念。
可能大家会上 Reddit,里面有很多板块,假如说你要去学习写网页代码,去学写什么 code,你就直接去 JavaScript 的板块里面去看。但这个是要在你有一定的基础之后,你要了解这个东西,不然你连 JavaScript 都不知道什么东西,你也不好去找。你想要知道怎么利用 AI 去写代码,也可以去看一下有没有比如 no-code 或者 vibe coding 类似的关键词,去找这种相应的板块进去学习。
就是在真实用户的提问和回答流里面,去锁定那些让很多新人卡壳的知识点。因为你不要总是觉得那些板块里的人他们就一定是什么大佬,很多都是新人进去学习去解惑的。
这跟我们刚刚说的教材学习方面有什么不一样的?看教材,你是从头往后看,看 deep research 的文档,你也是从头往后看的。但是社区的内容,它是按这种热度,或者说点赞,那一般就是那种高频的、重复的、点赞量大的,一般这种就是大家都困惑的,所以这种方法会天然的帮你筛选重要的概念。
就比如这里,我在 JavaScript 社区里面,把筛选选择了点赞最高的以及 All Time,也就是历史点赞最高的。第一条就是给你讲一个概念:什么是按引用传递,什么又是按值传递。这个好心人还给了一个 GIF 动画,你就可以很直观地看到。引用传递是那边怎么变,你这边怎么变。值传递就是你那边变了,这边不会变,这边变,那边也不会变,互不相干的。
此外,不是所有的阈值概念都会写在教材里面,很多「坑」其实是要到实际情况里面才会去遇到的。教程它里面写的只是一些理论上,或者说写书的人遇到的以及他之前搜集到的一些概念。
但是一个领域那么庞杂,是不可能面面俱到的,所以社区就可以很好地去弥补。
但是社区挖掘一定还要你自己去有一定的基础,因为大家在里面回答问题,他不会真的说像教几岁小朋友那样一点也不懂的去教你,他肯定还是会用到一些领域里面的一些思维,或者说一些相对这个问题里的概念更基础的概念。
当然了,你不懂也可以在里面多问。反正你多问一次,别人总会有人去回答你的问题。你也可以多去回答别人的问题,因为有时候你就会发现,你讲给别人听,这反而巩固了自己的一些盲区。
干中学
做项目做不下去的卡点,往往就是你的个人阈值。前些时间我写过一篇关于这个的文章,大家有兴趣也欢迎去看一下。
我在那篇文章里提到,像AI这样的工具已经极大降低了「做」的门槛。像以前你想要做一件事情的时候,你可能先去上百度查。但是百度它给你各种各样的教程,你都不知道从哪一个开始看起,每一个可能方法都不同。更何况有时候你只想达到你的目的,你根本不需要去了解具体要怎么做。
如今有了 AI,你只需要让它汇总所有人的方案去给你一个比较好的解决方法,或者直接去帮你给出解决方法。你只需要去指导他这个项目需要怎么去发展,有你自己的思路,其他的脏活累活可以让 AI 来干。
传统搜索路径 | AI 驱动路径 | |
---|---|---|
起点 | 明确问题 → 在百度/Google 输入关键词 | 向 GPT/Gemini 提出需求 |
中段 | 浏览多篇教程 → 挑一篇尝试 → 跑代码/配环境 → 报错 → 回搜索页换教程(循环) | 获得集成方案 + 示例代码 → 一键运行 → AI 根据报错再修正 |
认知负荷 | 高:需自行筛选信息、拼接步骤、调试 | 低:AI 预整合步骤,用户主要做“高阶决策” |
时间成本 | 跳转/阅读/试错反复消耗 | 一轮即可见 MVP,后续迭代由 AI 执行 |
创新点/优势 | – | • 步骤压缩 • 方案个性化 • 脏活自动化 • 即时迭代 |
传统的搜索相当于多元的碎片需要你去手工拼装,但是 AI 驱动也就是单点对话相当于端到端的集成,AI 会把「信息检索→方案整合→脚本生成→报错修复」打包,然后剩下的高价值动作,就只剩下定义目标和监督迭代。现在除了你目标的清晰,最重要的就是你怎么去监督 AI,这就需要用到阈值知识点。
换句话说,你完全可以先有点子,再快速动手,把一个玩具项目「撸出来」,哪怕只是个demo。就在做的过程中,你会随时撞到各种意想不到的「拦路虎」——这些卡点,其实就是你在该领域里的个人「阈值概念」。
看书总感觉啥都简单,这也会那也会,但是真到了做的时候还是「眼睛会了手不会」。现在 AI + 社区的时代,很多东西的试错成本约等于 0,demo 跑不通直接整个代码或者截图丢给 AI 或者论坛,可能马上就能获得精准诊断。
很多东西还是需要我们自己手动去试一下,我之前写的提到了 Git 的一些操作,以前都不知道 push、fetch 到底是什么意思。你看那个解释好像也是懵懵懂懂,但是你只要自己去试一下那个操作,就知道原来是这样。
书籍文档只能呈现静态的文字,但很多动作、细节,或是观看的感受,其实是文字替代不了的。
在我做网页上那些小项目的时候,比如说这个 SEO Agent、Markdown to Image 这种小工具,也不是等所有知识都准备充分了,我才开始搞。就是哪怕你一点基础都没有,你可以先让 AI 帮你生成一个雏形,然后呢,和它聊来聊去,在这个过程当中,你肯定会遇到不会部署、Agent 里面的 API 出错了,或者语法报错等等各种问题。每一次你遇到的问题,你去解决了,其实都会形成你的阈值概念。
卡住了别闷头查资料、重复踩坑,而是要学会“尴尬暴露”——把你的「笨问题」直接扔进社区、论坛(比如Reddit、微信群、Discord等):“我在xx项目做到这一步卡住了,不会XXX”。很多时候高手一两句话就能点破,那就是你要补的关键知识点。
「去干」不是目的,而是定位阈值的雷达。
其实你们有没有发现这些步骤,前面两个—— 教科书和 Deep Research,是给纯小白的一个入门路径。这两个是可以互换的,实际上你想要用哪一个是看你自己是真心想学还是想赶快解决任务。
然后混圈子和干中学这两个方法是需要你有一定小小基础的,不一定要特别的懂,但是一定要有一些基本的概念,毕竟阈值概念也是分基础的和更加高阶点的阈值。
高频基础技能 → 路径
真正需要记忆的,是那些无法被工具替代的核心知识、思维方式和判断力。
每个工作可能都会有它自己的一些专业方面的工具,但是我们一定不能越过的肯定是 AI 工具。那如何去用好 AI 呢?简单归结就是“会说话”。
“最热门的新编程语言是英语。” ——Andrej Karpathy
“未来的优势不在于谁知道答案,而在于谁会提出好问题。” ——Sam Altman
并不是会用 AI 某个功能就能变强,决定性的是你能否拆解、表达、指导和整合AI流程。比如,任务分解、精确提问(Prompt Engineering)、评估输出、组合多种工具协作。
前些天看到一个文章报道,说的就是 WPS 产品总监赵九州,把复杂AI组件拆分成小任务,各部门协作,效率远超同行。
在讲清楚自己需求这个部分,就需要用到阈值概念了。
以制作带 AI 功能的 HTML 网页为例,当你掌握了 API、HTML、CSS、JavaScript等阈值概念后,关键在于向 AI 讲清楚自己的需求。
什么是讲清楚需求?首先要详细描述网页的外观设计,包括布局、功能模块等具体要求。其次,由于不同AI服务商的API接口格式各不相同,你需要主动提供相应的API接口模板,确保AI能够正确调用。
在开发过程中,要采用分步骤的方式与 AI 协作。比如先让 AI 编写基础的 HTML 文件,建立网页结构;然后添加 CSS 样式,完善视觉效果;最后编写 JavaScript 脚本,实现用户交互功能。这种循序渐进的方法远比简单地说"请帮我写一个带有AI功能的网页"更加有效。
这整个部分缺少了阈值概念,你就无法去清楚地规划你的需求。但是如果你又不清楚地去规划你的需求,即使有阈值概念也无的放矢。
因此,「路径」本身成了新的记忆对象——这也是下一节我要讲的「通用路径」。
谷歌效应 → 从记忆事实到记忆路径
在 AI + 工具爆炸的今天,「一次性技巧」早已过时,真正可以跨项目、跨岗位反复复用的,是一套显性化的流程脚本:目标设定 → 任务分解 → 信息/工具检索 → 方案整合 → 执行‑验证 → 迭代优化。
我把它称为「通用路径」——所有知识工作者的「元 SOP」。
为什么同样用 ChatGPT,有人 3 分钟做出网页 demo,有人却原地打转?
差异不在工具,而在是否拥有一条成熟的通用路径:
- 有路径的人:直接调用现成脚本——“先生成骨架 HTML→再补 API Key→最后本地调试”。AI 负责 80% 的体力活,自己只监控关键节点。
- 没路径的人:每次都要重新想“先问什么?再干什么?报错去哪查?”——工作记忆不断溢出,遇到 bug 只能原地兜圈。
这就像厨师与新手用同一把菜刀:高手按菜谱直奔成品,新手反复试味,最后连厨房都没出。
通用路径 = 显性脚本 → 先写在外部(文档/流程图),多次实践后再内化为「肌肉感」;而不是把肌肉记忆当作先决条件。没有这条脚本,任何高效工具都会被你拖成低效流程。
任务分解
所以你现在可以去回顾一下你过往做的那些任务,有哪一些是相似的任务,然后再花时间去回顾你之前做那些任务的步骤,有没有什么共同点。
你可以去写一下每一步发生了什么,哪怕很零碎都无所谓,多复盘几次,你就会发现不同的任务里面,总有一些共同的环节会反复出现。
这些零碎的笔记就是你的“底层操作系统”雏形。
“跳出具体,看结构”=归纳提纯
用类比思维(把“做网站”“自动记账”“整理素材”等过程,画成流程图),你会看到:
- 很多流程不看内容本身,实际“骨架”是一样的:收集—分解—选择—组装—优化。
- 和高手/社区交流,认真拆读他们解决问题的过程,也以流程方式画出,他们是怎么“跳坑-思考-换路”的。
如果你觉得自己提取太麻烦了,你就可以用到 AI 了。不论是说出来还是你自己用笔写出来,每一次你的复盘笔记都是一种思考和反思的过程。不仅仅可以拿出来提取一个通用路径,它还可以帮助你下一次规避一些问题,所以是一举两得的事情。
你把所有的都放在一起,然后让 AI 大语言模型去帮你总结出合理的普世性的一条路径,因为它最擅长的除了模仿就是模式提取。
习惯和元认知
一旦我们把模式提出来之后,我们以后肯定就是去参照我们最初提出来的这个模式去进行工作。
这个模式,或者说通用路径,不是一次性设定,而是「复盘 → 抽象 → 回用」的小循环,每转一圈,人工负担更小、适用面更广。真能找到和灵活迁移「通用路径」的,是那些持续复盘+主动归纳总结+愿意把流程抽象出来的人。
只会“做一步算一步”/只看表层操作、不愿归纳、懒得回顾流程的人,一辈子都在重复「原地学新工具」,永远依赖「教程」、不会真正转化为迁移能力。
生成式 AI → 从记忆路径到设计与监督
搜索引擎让我们把本来花在记忆具体知识点和琐碎事实上的大脑「注意力」,转而解放出来——我们更多记住「去哪里查」,「怎么查」,而不是死记那些碎信息。
所以认知资源更集中用于「路径」(流程和方法)的记忆与运用,而不是每个步骤、每条知识点本身。
可以说,要把省下的认知资源真正用起来,先得有一条对大多数任务都通用的「骨架流程」。这样一来,我们释放出了大量曾经被“例行记忆”消耗的认知能量,现在这些能量可以投向更高阶的创新、判断、整合、战略性思维上。
认知资源的三次迁移
搜索引擎解放了大脑的一部分机械记忆,「路径记忆」取代了「内容记忆」。我们更多记住「怎么查」「查什么」,不用再死记每一个信息碎片。跨主题迁移变得高效,比如写文章、查地理、做函数,都是先确定“路径框架或关键词—再用Google补齐细节”。
【过去年代,认知和注意力资源基本都被“死记硬背”所消耗。要记住各国城市顺序、每个Excel函数、每条公式——每遇新情境都要背一遍,几乎无迁移。这种模式下,工具能力(AI/Google)几乎没有介入空间,人的大脑就是计算机。】
想写主题,每次都能通过制定 SOP+网络搜索,一遍遍把新问题“套流程—查缺补漏—复用——快速出结果”,认知能量释放出来做结构化思考。
AI 让我们连「查资料+拼方案」都不必亲自动手,能直接用语言描述需求、让模型一键生成结构/路径/答案。资源主要用于:设计和分解任务(Prompt)、评价AI输出是否合理、针对输出二次优化和创新。
自动写Excel公式/写文章/开发demo,普通用户甚至不用记任何技术细节,只要明确目的+表达最优需求,AI自动帮你完成绝大多数步骤。
搜索让我们省下了背答案的脑力,AI 则进一步把「查资料+拼方案」都打包代劳——人类可以把腾出的带宽用在「设计与监督」上。
阶段 | 人脑主要负荷 | 外部工具角色 |
---|---|---|
前搜索时代 | 事实记忆 | 很少 |
搜索时代 | 路径记忆(关键词→链接) | 搜索引擎 |
生成式 AI 时代 | 路径设计与监督 | LLM 负责检索、拼装、生成、调试 |
近年的认知科学研究表明,人们会主动进行「意图外包」(intention off‑loading),把待办事项交给外部提醒,以节省工作记忆。LLM 把外包层级再向上推——不仅帮我们“找到和拼好资料”,还能直接产出可执行脚本、代码和文案。
人脑因此可把更多带宽投入:
- 目标/约束的精确定义(Prompt Engineer);
- 输出的评估、伦理与风险把控;
- 跨领域创新与战略决策。
通用路径在此阶段成为人与 AI 的接口协议——告诉 AI 该接手哪一步、产出什么格式、交给谁验证。
当然,所有阶段都需要有阈值概念,在当下没有跨过阈值,你无法理解 AI 或搜索结果的意义,更别说监督其输出。有了阈值概念,原本零散的信息在心中连成网,可以大致去判断 AI 是否在「胡说」。
我的行为及感受
从前我写文章,是在阈值概念的基础上再去搜索相应的资料,而现在我直接就是先把我的想法表达出来跟 AI 讲。
AI 会顺着我的思路给出角度、补证据、提结构,我只做两件事:把目标说清,做判断与修改。写作流程从“先查再写”变成“先说再查”,检索变薄了,路径与判断变厚了。
- 搜索是在我的原始想法之上提炼出来的,得到的结果是一系列的相关信息。
- 与 AI 聊天是直接基于我的原始想法,AI 不仅会返回相关信息还会表达它的想法。
我的写作流程从「先查资料 → 再动笔」,变成了「先掏心窝子 → 让 AI 顺着思路铺路」。AI 不仅充当了检索的角色,还充当了讨论伙伴的角色。
在「全靠人脑」阶段(我称之为“前搜索/互联网时代”,虽然我没经历过,但我可以假想一下),我确定好一个研究主题,首先是有一个大概的大纲(一般我肯定都是选我熟悉的领域),然后根据我已有的知识去进一步查阅书籍,因为总有一些知识是忘掉需要回顾的,也有一些是熟悉领域的陌生知识。
边看边记边想,逐步修订然后最终形成一个完整清晰的大纲,还没完,我在写稿子的时候如果突然有一个灵感我可能又要停下来去查阅。
反正在这个阶段要记住素材出处、结构、要素,如果碰到我不会的要临时去补充相应的知识点和细节。反正基本上一切都是要靠会议、笔记本和自己去反差、拼装,搜错有时候跟不上及时反馈。
第一阶段我们可以复盘一下,在这个部分我的资源分配有什么特性,大量精力被琐碎事实、如何查找、找哪本书、以及如何梳理结构所消耗。人脑承担了「查、想、写、编」所有流程。
到了「搜索/谷歌效应阶段」,流程又变了,当然第一个还是把主题定好,然后确定一个大概的提纲。但是下一步我是去搜索关键词(谷歌、百度、甚至是知乎),这样就不用不同领域用不同的书而是都在一个平台一个屏幕去寻找,最后汇总材料、整理结构不断的优化迭代后再去撰写。
这个时候的重点在于“怎么查”,比如检索技巧、信息筛选,而且这个技能学会了能在不同领域通用。把细节、内容交给搜索引擎。
把这个流程和前面原始流程对比,这个部分其实结构化思考变多了,更多的认知资源被释放去综合、归纳、分析、创新、表达。
怎么说?
人的认知资源,由体力式的“查找/背诵”大幅转向:
- 逻辑结构搭建
- 信息归纳/综合分析
- 内容选优与创新表达
- 多维度比较/整合
查资料这些底层消耗被搜索引擎和平台承包,人主要做“审查-加工-整合-输出-创新”。
回到当下「生成式 AI 时代」,一开始都不必有一个明确的主题。我其实是一个比较钝的人,对于生活中的一些现象和事件,放以往我看了也就是看了。但现在我会强迫自己跟 AI 聊一下,如果你也很懒,你可以搞一个提示词一劳永逸,每次就把提示词和你观察到的事件给他,然后 AI 自己在那分析评论。
让它先抛一些话题出来,然后你们再接着聊,聊着聊着思路说不定就出来了。紧接可以就着你的思路和 AI 头脑风暴、交互问答补全细节(尽量用一些智商高的模型、最好有联网能力),最后不断补全你的大纲。
相当于主题、检索、整理等等,AI 都包揽了,而且相比于以前你一个人在那里想来想去,现在你甚至有时候可以借助外力跳出自己的思维圈。我们的工作就在于目标表达(prompt)、结构/风格把控、内容高阶判断、创新点/选题定义、批判性修改。
一些思考
显而易见(应该是吧),创作门槛发生了转变,越会「提问」、会拆目标、懂流程和结构本身的人,用 AI 越能获得“质变式创作力”。所以当一些庞杂的知识被路径替代后,你所需要掌握的就是怎么走好这条路(使用方法)以及起点(阈值概念)。
在我个人看来,自学某个领域就用「阈值概念」+「路径外包」来实现,而不是去上一些课程死磕,在干中学、以练带学,完全就能初步了解并且在 AI 放大器的加持下能够有小专家的水平(或者看起来有这个水平)。
对于使用 AI 最近也有些新的心得,或者是观察到的现象。我女朋友一直吐槽我:“你跟 AI 聊天也太有耐心了吧?我发两句话它还听不懂,我就关掉了。为什么要给这帮大傻子充钱?”
我忽然感觉,用 AI 是不是就是要多说,你去使用它的时候,就是像对着一个学识渊博但是一点也不了解你的陌生人在讲让他帮助你。
就像你去旅行社让别人帮你安排旅游一样,你总不能直接让他给你一个安排,你还需要给出你的预算、你什么时间能去以及偏好哪些东西等等,我觉得是一个道理。
大模型的思考逻辑有点像“拼图”——你给它的越多,它越能还原全貌。只扔一句“写攻略”,等于只给了两块拼图,AI 只能猜;把人数、时间、预算、天气都说清,相当于一次性把边框都摆好,AI 才能把剩下空白快速填满。
信息越清楚,回报越成倍。其实你说得多了你的需求就在你的言语中被表达出来了,所以其实还是把背景和需求讲清楚,而不是简单的讲出来。这里面可能涉及了元认知能力,我们很多时候都是知道自己想干啥,但是让我用语言或者文字表达出来可能就不知道咋讲。
这个跟 AI 的底层逻辑也是挂钩的,模型本质上是「条件概率机器」,上下文越丰富,模型越容易收敛到你真正想要的分布(当然,你讲的太多有时候也会限制它的发展)。所以信息不清就相当于有了隐形摩擦成本。
具体怎么提升「元认知」能力,这个内容就不详细去讲了。除了这个方面,我还有一个笨办法,你先能想到什么就说什么就表达什么,然后在碎片里去链接你的背景、逻辑和需求。在这个学期上了管理心理学,老师在课堂上讲过「关键决策法」(CDM),我觉得有一些思路可以借鉴。
课上老师介绍了 CDM 的四轮询问流程,针对一个关键决策/需求,把其背后的知识、判断、影响因素一步步拆解、延伸出来:
- 第一轮,确定要探讨的“关键事件/问题”
- 第二轮,把时间线和行为步骤拆清楚(事实层级、可观察的层级)
- 第三轮,深度挖掘每一步决策时的考虑点、线索、判断逻辑(甚至无意识成分)
- 第四轮,“假设what if”,展开变化情景,寻找经验要素和新手的区别等
如果改成我们个人的「自我澄清工具」来补充完善 prompt,我觉得可以这样来类比:
CDM 阶段 | 自用提问示例 |
---|---|
选事件 | “这篇文章/这个需求最重要的场景是什么?为什么?” |
画时间线 | “我第一次想到它→开始调研→写第一稿→收反馈→定稿,分别发生了什么?” |
深挖思路 | “当时我根据哪些线索判断 A 比 B 更好?还有别的选项吗?” |
假设对比 | “如果把‘我’换成完全不懂行的朋友,他会卡在哪?我应多补哪一步说明?” |
「选事件」这里,你需要锁定唯一焦点,别一口气想十件事,然后你再回忆你从有这个想法开始到现在经历了啥,把他们按照时间顺序连起来(写下来),从头到尾来复盘是不是漏了什么还是有哪些地方没考虑到,最后就是为「它」着想,要补充点啥让它多了解我一点。
这里我拿 flowith 简单的演示一下,对比一下「基线方案(一句话 Prompt)」与「CDM → 高信息量 Prompt」的结果。这里我把两个提示词都用 Flowith 的 GPT-5 进行生成,然后我再把这两个答案发送给 Claude Opus 4.1 Thinking 模式进行评价。
在第二个提示词中,我首先选择了唯一焦点,主要目的就是要解决读者在 AI 时代仍然会遇到的「背答案」的错位。然后我模拟了一个时间线,就拿这篇文章做一个例子,看到 Cluely 争议,回想谷歌效应,发现写作流程也在变。
然后,再给读者一些建议,再按照这个时间线深入挖掘这个思路。比如可以想一下生活中的例子,工作场景的一些例子。再去看背后有没有理论支撑,如「阈值概念」。但这个过程中也要做一些取舍,就是不要去堆砌术语。观点可以一正一反,有个对比能够更强烈一点。
最后就是做假设对比,假如读者是一些非技术的新人,他会卡在哪里?比如说术语、步骤太空,我需要补什么呢?根据这几个步骤写的提示词,再给到 GPT-5。
其实到这里我们就能发现,这个过程其实是又一次的思考,对于自己想法的思考和补充,相当于又打磨了一次我们的计划想法。我倾向于这种方式的原因也在此,每一次经过这个过程相当于又一次复盘和思考,有时候就能得到一些新的见解,而且用文字记录下来每次你换一个模型或者换一个软件去让它帮你解决的时候,能不断复用。
说到这我有个小需求,不知道大家有没有什么想法或推荐:
一般我要完成一些项目,会用到多种 AI 工具,有一个痛点就是我每次都要让不同的 AI 信息流通(emm,更牛马一点说,颗粒度对齐)。我刚刚的 CDM 只是负责把大概的方针给到工具,但是我每次从 A 软件到 B 软件的时候,我要给 B 软件讲一下我前面做的进展,除了我自己手动的去添加,我在想有没有什么工具,能够记录我和不同工具或者 AI 讨论交互的细节,像记录流水账一样,这样就能让我的不同小助手「颗粒度对齐」🤣。