当大模型刚进入公众视野时,讨论多半围着效率打转:能不能替人写、替人查、替人总结。现在问题变了。AI 已经不只是替你做事的工具,而是在很多场景里变成了陪你想问题的对象。

这也是新近一篇长文《AI-Assisted Cognition Endangers Human Development》真正补强的地方。它没有把重点放在模型偶尔说错、带偏见,或安全机制是否过严,而是把问题推进到更深一层:当越来越多人用同几类基础模型来整理信息、组织观点、形成判断,人类知识增长本身会不会被悄悄带向更窄的方向。

这个补充很重要。过去对 AI 风险的讨论,很多还停留在“答案质量”。这篇文章加上的新变量,是“认知来源的集中化”:表面上产品很多,底下却往往建立在少数底模之上。结果不是大家同时收到同一句错误答案,而是越来越多人用相近的方式提问、拆题、求证、下结论。

问题已经不是 AI 会不会替你干活,而是它开始参与“你怎么想”

书会影响人,搜索引擎会影响人,社交平台也会影响人。但大模型和它们都不太一样。

搜索更像入口分发,推荐更像议题筛选;聊天式 AI 则更靠近认知内部。它会陪你头脑风暴,帮你改判断,给你列备选方案,甚至在你犹豫时替你把模糊想法说完整。很多人把它当“第二大脑”,靠的正是这种贴身感。

问题在于,这个“第二大脑”并不真正生活在当下。即便它能处理新信息、调用新资料,它的核心知识组织方式、偏好的解释路径、默认的叙事框架,仍然高度受制于训练时形成的底层惯性。你以为自己在和一个理解现实变化的思考伙伴讨论,很多时候更像是在和一个知识广博、表达顺滑、但世界观更新速度有限的顾问开会。

这比“它会不会犯错”更麻烦。错误还能纠正,惯性却更难被察觉。模型未必要给出明显离谱的答案,它只需要一次次把讨论带回统计上更熟悉、更稳妥、更像既有语料的路径,就足以慢慢收缩人的判断空间。

更大的风险不是谬误扩散,而是思路越来越像

新文章最有价值的地方,是把“偏见”与“同质化”分开了。

偏见指向错误、失衡或不公平;同质化指向范围收缩。后者更隐蔽。它不一定制造立刻可见的灾难,却可能让那些原本有机会出现的异见、怪想法、跨学科连接,压根没有长出来。

这可以理解为一种“认知近亲繁殖”。社会上越来越多学生、产品经理、程序员、研究者、管理者,都先找 AI 聊一轮,再写作、再决策、再讨论。只要这些系统共享相近的基础模型,它们就会把大量人推向相似的表达模板、问题框架和合理性标准。

这一点,是新来源相较于旧有讨论真正补强的判断:危险未必先表现为“人类能力退化”,而更可能先表现为“思路生态变窄”。大家依然能写,甚至写得更好;依然能分析,甚至分析得更完整。但完整不等于开放,流畅也不等于新颖。

对知识生产来说,这种变化尤其要命。很多重要发现并不是从标准答案里推出来的,而是来自低概率连接:一个外行问题碰上一个旧概念,一个边缘视角撞上主流框架,一个看似不成熟的判断突然解释了新现实。若越来越多人的概念组合方式先被底模整理过一遍,这类连接出现的概率就可能下降。

为什么现在比两年前更值得担心

这个问题放在大模型爆发初期,还容易被当成哲学担忧。放到 AI 已经进入日常工作流的阶段,它就更像一个现实约束。

原因不复杂:AI 正从“偶尔用一次”变成“先问它一轮”。

对两类人影响最直接。

一类是学生和年轻知识工作者。他们还在形成自己的判断习惯,最容易把顺滑、完整、礼貌的回答误当成成熟思考。长期依赖后,写作和分析能力未必立刻下降,但问题意识、怀疑能力、与陌生观点缠斗的耐心,可能先变弱。

另一类是高频做方案和决策的人,比如产品、内容、市场、管理岗位。他们使用 AI 的方式往往不是查一个事实,而是让它参与提纲、定位、论证、复盘。效率会提高,但一旦组织内部很多人都借助同类模型思考,团队就更容易出现“都很专业,但想得差不多”的局面。

这里还有一个容易被忽略的现实:市面上聊天机器人看起来百花齐放,底层基础模型却没那么多。产品层面的多样化,不等于认知来源足够分散。语气不同、人设不同、拒答风格不同,不代表底层知识结构差异同样大。

这也是新来源给出的一个关键对照:搜索时代主要担心入口排序,社交平台时代主要担心信息分发,生成式 AI 时代则要开始担心“推理陪伴”的集中化。它不只是影响你看见什么,也在影响你如何把看见的东西编织成判断。

这不意味着少用 AI,而是要防止把它当成结论机器

把问题说成“那就别用 AI”并不成立。导航会削弱路感,但不会因此回到纸地图时代;同理,AI 确实能扩大普通人的信息触达和表达能力,这部分收益是真实的。

更现实的做法,是调整使用位置。

如果把 AI 当检索放大器、资料整理器、争议面罗列器,它通常有帮助;如果把它当最终判断的默认起点,风险就会大得多。尤其在产业变化、政策拐点、社会议题这类高依赖现实更新的场景里,模型越流畅,用户越容易忽略它的时间滞后和路径依赖。

还有一个常被忽视的问题:真正危险的不总是显性拒答,而是“无形拒答”。

也就是模型没有直接说“不回答”,却根本不把某条思路展开,不主动给你那条路径,让你自然接受“事情大概就只有这些可能”。这类收缩最难防,因为用户往往意识不到自己错过了什么。一个错误答案至少还能被质疑,一条从未进入视野的路线,连纠错机会都没有。

所以,和 AI 相处更像一种认知卫生问题,而不是一次产品选择题。几条原则是实用的:

  • 让它先帮你铺信息,不要急着让它替你收口
  • 同一问题换几种问法,必要时换不同模型交叉看
  • 主动要求它提出反面论证,而不是只替你完善原观点
  • 对关键判断保留真人讨论环节,尤其是跨部门、跨背景的人

这些方法不能根治同质化,但至少能减缓“看起来想了很多,实际只在同一轨道里来回打磨”的问题。

真正要观察的,不只是模型更强,而是社会会不会更像同一种脑回路

这篇新文章也有边界。它提出的是结构性预警,不是已经完成因果证明的定论。今天还没有足够证据精确回答:AI 辅助认知究竟会让社会少掉多少新思想、错过多少判断、压平多少分歧。

但它至少把讨论从“模型会不会犯错”推进到了“知识系统会不会收缩”。这一步很关键,因为商业上最容易优化的是更快、更稳、更像样的回答;对社会更重要的,可能反而是保住噪声、异见、笨拙争论和少数派路径。

接下来更值得观察的,不是单个模型的榜单排名,而是产品设计是否开始认真对待认知多样性。比如,它会不会鼓励用户看到冲突框架而非单一路线,会不会暴露不确定性而非过度修饰确定感,会不会让少数观点有被看见的机会,而不是总把讨论拉回最稳妥的平均答案。

如果这些变量长期缺席,AI 带来的问题就不只是“省没省时间”。人类也许不会立刻变笨,但很可能先失去思考里的野性:答案越来越完整,问题却越来越少;表达越来越熟练,判断却越来越像。