《纽约时报》这次更正,事情不大,信号很硬。

一篇加拿大选举报道里,记者把 AI 生成的政治观点摘要,当成了加拿大保守党领袖 Pierre Poilievre 的原话引用。时报后来在编辑说明里承认:AI 把观点摘要渲染成 quotation,记者本应检查工具返回内容的准确性。

文章已经改了。现在引用的是 Poilievre 今年 4 月演讲中的真实表述。时报还特别澄清:他并没有在那场演讲中把改变阵营的政客称为 “turncoats”。

Simon Willison 做的是转引和摘录这段编辑说明,不是爆料调查。这个边界也要放清楚。

这次错在哪里:AI 摘要被穿上了引号

这件事可以压缩成一张卡片:

问题事实
误引对象Pierre Poilievre,加拿大保守党领袖
错误性质AI 将观点摘要渲染成直接引语,记者未核验
更正内容文章改为引用其 4 月演讲中的真实表述
关键澄清他未在该演讲中称换阵营政客为 “turncoats”
目前未知时报未说明使用了哪款 AI 工具,也未披露内部处理细节

如果只说“AI 又幻觉了”,反而把责任说轻了。

AI 当然会编、会补、会把“意思差不多”写成“某人说过”。这已经不是新知识。真正刺眼的是后半句:记者应该核验,但没有核验。

新闻里的引号不是排版符号。它代表来源、语境、责任和可追溯性。把模型摘要放进引号里,就等于把机器的归纳,伪装成当事人的原话。

“名不正,则言不顺。”放到新闻引用里,就是一句很朴素的规矩:谁说的,在哪说的,原话是什么,不能混。

真正的漏洞:核验责任被工具稀释了

我更在意的不是某个记者犯错,而是这种错为什么会变得更容易。

生成式 AI 最擅长制造一种“像已经核验过”的文本。语气稳,结构顺,还可能主动补上引号。它给人的错觉是:这段话已经在某个地方存在过,只是我还没点开原文。

但新闻工作不能靠这种错觉。

摘要可以帮记者找方向,不能替记者落引号。模型可以提示某人可能表达过类似观点,不能直接变成“某人说”。工具越顺手,越要把事实链条拉紧。

这里有一个现实约束:不是所有报道都有完整逐字稿、公开录音或清晰出处。竞选报道节奏又快,材料又杂。这些都能解释压力,不能取消核验。

对新闻机构和内容团队,动作应该很具体:

对象该改什么
记者 / 作者AI 输出只能当线索;直接引语必须回到演讲、采访、文件、录音或可信逐字稿
编辑 / 审稿人凡是引号内文字,要求标注原始来源;找不到来源,就改成转述或删掉
内容审核负责人在 CMS 或审稿清单里加入“AI 生成内容不得直接作为引语”的硬规则
AI 工具采购者不要只看摘要能力;要看引用溯源、原文定位、日志留存和人工复核接口

这才是对目标读者有用的地方。

关注 AI 与媒体伦理的读者,不必把这件事理解成“时报系统性造假”。目前材料只证明一次具体误引与更正。但它足以提醒我们:以后看 AI 参与生产的内容,最该盯的不是文风像不像人,而是引用能不能追到原始来源。

新闻从业者和内容流程负责人,不能再把“人类最终负责”挂在墙上当护身符。责任如果没有写进流程,最后就会变成人人负责,等于没人负责。

接下来该看什么:不是禁用 AI,而是引号有没有门禁

AI 能不能进编辑流程,不是最关键的问题。它已经进来了,或早或晚,明里暗里。

真正的分水岭是:机构有没有把核验机制制度化。

可以看几个硬指标:

  • 直接引语是否必须绑定原始来源;
  • AI 摘要和人工转述是否有明确标记;
  • 编辑能否查看模型输出、原始材料和修改链路;
  • 更正说明是否具体到错误机制,而不是只写“已更新”;
  • 工具采购是否要求可追溯,而不是只要求更快生成。

这些东西不性感,也不适合发布会。但它们决定一家机构是在用 AI 提效,还是在用 AI 稀释责任。

历史上每一次信息技术提速,都会带来产能幻觉。电报让新闻更快,误报也更快;社交平台让发布更轻,谣言也更轻。AI 不完全等同于这些旧技术,但重复了同一种诱惑:先把速度拿到手,再把责任往后推。

这次时报至少做了更正,也说明了错误机制。这一点该肯定。可代价也摆在那儿:一家顶级新闻机构都能让 AI 摘要穿上引号,普通内容团队更没资格假装自己天然免疫。

回到开头那个小细节。

一个词,一个引号,一段被误认的原话。它看起来不像大事故,却正好暴露了 AI 时代新闻可信度最薄的地方。

模型更会写了,编辑更不能偷懒。引号一落,责任就落了。没有核验,工具再聪明,也只是把错误写得更像真的。