你现在想安静写封邮件,Microsoft Copilot 在旁边等着;想用手机,Google Gemini 往系统里钻;打开电脑,Apple Intelligence 也开始出现在菜单里。
Sean Boots 给这种状态起了个挺准确的名字:生成式 AI 素食主义。
这不是反技术,也不是把所有 AI 都打成原罪。它更像一种克制:在日常生活里,尽量少用、拒用、绕开 ChatGPT、Microsoft Copilot、Google Gemini、Claude 这类生成式 AI 工具。
我觉得这个说法值得聊,不是因为它新奇,而是因为它把一个被遮住的问题挑了出来:当 AI 从“可选工具”变成“默认配置”,个人选择会被产品设计慢慢吃掉。
这不是反 AI,而是拒绝默认喂到嘴边
Boots 对生成式 AI 的定义很朴素:一个极简界面,海量抓取数据,一套基于预测的数学模型。
你输入一句话,它根据训练数据和概率生成文字、图片、代码或其他内容。界面越轻,背后的数据和算力越重。
他反对的不是所有算法。这个区分很重要。
| 工具类型 | 他的态度 | 关键区别 |
|---|---|---|
| 拼写检查、垃圾邮件过滤 | 接受 | 辅助判断,不替你完成表达 |
| OCR、计算机视觉 | 认可其价值 | 处理明确任务,边界较清楚 |
| 推荐歌单、照片识别 | 仍会使用 | 有用,但保持警惕 |
| ChatGPT、Copilot、Gemini、Claude | 尽量回避 | 生成内容,并改变创作和决策流程 |
所以他不是“AI vegan”。
他也承认,有些人用生成式 AI 做出了有价值的公共服务实验。比如让政府数据更容易访问,让复杂服务更容易查询。这类尝试不能一棍子打死。
他的拒用动作很具体:关闭 Microsoft Copilot,关闭 Google Gemini,关闭 Apple Intelligence;不用那些关不掉的内置 AI 功能;不转发 AI 生成的文章、图片、音乐和视频;买产品时,优先选没有 AI 功能、或至少能干净关闭 AI 的版本。
这不像道德表演,更像饮食控制。
不是证明自己高洁,而是少吃一点平台递来的东西。
他不想吃这口,理由并不玄学
Boots 的理由可以压成五条。
生成式 AI 有偏见和歧视风险。训练数据来自现实世界,现实世界本来就不干净。模型输出再叠加公司治理、产品目标和具体场景,偏差并不稀奇。
它会削弱技能。写作、编程、判断、审美,都要靠困难养出来。太早把摩擦交给工具,人会变快,也会变薄。
它制造平庸内容。基于预测的系统更擅长给出“像答案的答案”。这适合填空,不一定适合发现。很多有价值的东西,恰恰是不顺、不像、反直觉。
它冲击创作者职业。写作者、插画师、音乐人和其他创意劳动者,本来就在平台经济里被压得很低。生成式 AI 抓取作品训练,再反过来替代部分需求,这个账很难算公平。
它还会强化大公司和供应商锁定。组织一旦把流程接进某家 AI 工具,后面想退出就不只是取消订阅。权限、数据、工作流、员工习惯,都会慢慢绑住。
这里有句老话贴得很紧:天下熙熙,皆为利来。
今天的 AI 叙事看起来是效率革命,落到产品里,常常是入口争夺、数据争夺、流程控制权争夺。
普通用户受影响的方式很小,也很具体。
你写邮件时,草稿按钮一直在旁边;你搜索时,摘要先替你归纳;你开会时,自动纪要替你决定什么算重点。单次看是省事,长期看是判断肌肉少了一层训练。
正在采购或部署 AI 的团队,动作也该更慢一点。
不要只问“能不能提效”。还要问三件事:能不能关闭,关闭后功能是否完整,数据和流程能不能迁走。
如果这三个问题答不清,采购延后并不保守。那是在给未来留退路。
真正的变量是默认化
我更在意的,不是一个人用不用 ChatGPT 写周报。
成年人偶尔用工具偷懒,不值得上纲上线。公共部门、公益组织、开发者拿 AI 做实验,也不能简单否定。技术有边界场景,有些任务确实能被自动化改善。
问题出在默认化。
当 AI 是一个可选工具,用户还能判断:这件事要不要交给它。可当 AI 变成办公套件、手机系统、聊天软件、搜索入口的一部分,选择就开始变形。
按钮在那儿。提醒在那儿。组织 KPI 在那儿。你以为自己在选择,其实是在顺着界面走。
这和当年的平台推荐有点像,但不完全一样。
推荐系统改变你看什么。生成式 AI 更进一步,开始改变你产出什么、如何判断、谁对结果负责。它不只抢注意力,还伸手进劳动过程。
报业、电台、电视、互联网平台,都经历过类似的入口战争。谁控制入口,谁就能改写分发规则。今天生成式 AI 的新地方在于,它不只分发内容,还参与制造内容。
这才是更深的权力转移。
对普通用户来说,最现实的做法不是宣布永不使用 AI,而是保留几个硬开关:能关就关,能不用默认助手就不用,重要文本和判断不要交给自动生成,看到 AI 生成内容不要顺手转发。
对公共部门和组织管理者来说,别把“默认助手”当成免费红利。
一旦它进入流程,责任会被稀释,能力会被外包,供应商会变成基础设施的一部分。到那时再谈退出,成本就不是订阅费那么简单。
接下来真正该看的,不是哪家模型又强了多少,而是产品有没有给用户清楚的关闭入口;组织有没有允许员工不用;采购合同里有没有迁移、审计和退出条件。
这些细节不性感,却决定权力在哪里。
“生成式 AI 素食主义”提醒我们的,也不是每个人都该拒绝 AI。它提醒的是:拒绝权本身正在变得稀缺。
如果一个技术足够好,它不该害怕用户主动选择。凡是急着默认打开、反复弹窗、难以关闭的东西,多少都知道自己还没赢得真正信任。
