AI 写作变“水”,以前更多是直觉判断。现在,至少多了一个可盯的表面症状。

Barron’s 盯到一个很具体的句式:在 AlphaSense 收录的企业新闻稿、财报和政府文件里,“not just X — it’s Y”这类对举表达,2023 年大约出现 50 次,到了 2025 年已超过 200 次。TechCrunch 的意思也很明确:这已经成了 AI 文风的高频线索之一。

这里新增的价值,不是证明“企业都在让 AI 代笔”。证据没到那一步。真正补强的是另一层判断:企业内容生产正在越来越像装配线。先统一口气,再批量制造“像判断的话”。

句式不是铁证,但它把问题照亮了

先把边界说清。这个样本来自 AlphaSense 里的企业新闻稿、财报、政府文件,不是整个英文世界。这个限制很重要。

因为企业文本本来就高度模板化。它们追求低风险、可过审、少惹事。生成式 AI 恰好最擅长把这种语言磨得更平、更顺、更像那么回事。两边一拍即合,结果就是:你很难分清这是人写得越来越像 AI,还是 AI 学会了把企业套话写得更像企业。

所以我不买“一个句式就能鉴定 AI 代笔”这套说法。破折号不是指纹,对举句式也不是。它最多是强相关信号。

但信号够强,也够说明问题。Cisco 写过“AI won’t just be a tool; it will be a collaborator”;Accenture 写过“The future of autonomy isn’t just on the horizon; it’s already unfolding”;微软博客里,纳德拉也多次用过类似结构。大公司写着写着,越来越像同一个人。你说这是巧合,我不信。

这次真正新增的,不是句式,而是一个组织病灶

旧稿说的是:AI 写代码、写内容越来越容易把产出拉向“量大、味淡、信息密度低”。这次新线索把病灶位置标出来了:问题不只在模型,也在组织。

为什么这种句式会疯长?答案一点都不玄。因为它太好用了。

它有三个好处:

  • 好写.先否定旧框架,再抬出升级版说法。
  • 好懂.读者一眼就能抓到“旧的不够,新的是重点”。
  • 好装.哪怕后面的内容很空,前面的姿态也像完成了一次认知跃迁。

这就是修辞工业化。句子看着有推进,实际常常没有新增信息。

古人说“文胜质则史”。话要是比事还满,内容就开始发虚。今天很多企业文本,毛病正在这里:不是写得不通,是写得太通。通顺到谁都不用负责,顺滑到谁都不用判断。

生成式 AI 在这里干的,不只是代写。它更像一面回音壁。

企业原本就爱写安全套话;模型拿这些套话训练;再把更平滑、更标准的套话回灌给企业。最后得到的不是更好的表达,而是一套低风险、高一致、低人格的语言工业。法务喜欢,PR 喜欢,管理层也喜欢。因为它不冒犯人,也不承担人。

问题恰恰在这里:越是不承担判断的语言,越容易在组织里扩张。

谁先吃亏:分析师、记者、企业客户

真正被折磨的,先不是审美,而是判断成本。

对分析师和记者来说,这种文本最烦的地方不是假,而是稀。你读完像读了很多,实际拿不到多少可验证、可比较、可用于追问的新增信息。财报解释更顺了,战略表态更漂亮了,能帮助你判断公司到底做成了什么、没做成什么的句子却更少了。

对企业客户也一样。采购、合作、投预算,本来就怕两件事:一是听不懂,二是听懂了也没法判断真假。模板化 AI 文风把第二种风险放大了。你会看到很多“愿景升级”“协作升级”“智能升级”的说法,却更难看清交付边界、成本结构、真实能力。

这也是这次补充线索比旧稿更有价值的地方。它把受影响的人群缩得更准了:不是“所有读者都烦 AI 文风”,而是那些必须从企业文本里榨信息的人,会先被这种语言稀释伤到。

接下来该盯什么:不是破折号,是署名责任有没有回来

我更在意的,不是哪个句式又红了,而是高价值文本会不会继续空心化。

要看三件事。

  • 财报、战略更新、客户沟通里,具体信息比例有没有继续下降。
  • 企业是否重新加大人工编辑、实名署名、专家背书的权重。
  • 文本是否越来越像“可发布”,却越来越不像“可决策”。

历史上,官样文章一膨胀,后面多半不是文风问题,而是责任问题。报喜不报忧,以词代事,以势压证,古今一理。今天不过是多了个生成式 AI,把旧毛病做成了批量服务。

这和报业、电报、企业公文史上的模板化浪潮并不完全一样,但骨子里很像:技术先降低表达成本,组织再顺手把判断成本甩给外部。天下熙熙,皆为利来。省下的是写作时间,转嫁的是别人的识别负担。

旧稿里我说,烂代码未必会赢。放到这件事上也一样:烂表达未必立刻出事,因为它短期最符合大公司的激励。谁都能过关,谁都不用冒险。

但长期看,组织一旦把语言外包成模板,把判断外包给模型,丢掉的不是文采,是认知肌肉。写不清楚,常常不是不会写,是不想说;说得越来越像模型,也往往不是模型太强,而是人先放弃了思考。

企业文本最危险的时刻,不是开始有 AI 痕迹,而是所有人都接受“像 AI 一样说话”成了专业。那时问题已经不在文风,而在组织自己不再相信清楚表达有价值。