OpenAI 最近开始弃用部分 finetuning API。动作不算大,但很有指向性:一个曾经长期推广微调能力、鼓励开发者用 finetuning 改善模型表现的平台,正在把这条路线往后收。
别读过头。OpenAI 不是全面取消所有微调能力,微调也没有被判死刑。更准确的变化是:在多数 AI 应用里,微调正在从“默认选项”退回“专业工具”。
这件事为什么像风向标
OpenAI 过去对 finetuning 并不冷淡。开发者文档、案例和产品叙事里,微调曾经常被放在一个很诱人的位置:用自己的数据,让模型更贴合业务,还可能用更低成本逼近更强模型效果。
现在,部分相关 API 被弃用。具体迁移范围和替代方式,要以 OpenAI 官方文档为准;目前不能把它写成“微调全面关闭”。
但这个动作至少表明一件事:平台不再愿意把所有微调能力都当成长期稳定的默认入口。
原因并不神秘。
GPU 和推理成本仍然压着大厂。Anthropic 的估值势头也在逼近 OpenAI 的叙事空间。Sora 这类支线项目被讨论收缩取舍,也说明大厂开始重新排优先级。
AI 公司当然还能做很多事。问题是,什么最该占算力、工程人力和产品承诺。
对应用团队来说,影响很直接:如果你的新产品架构强依赖某个托管微调 API,现在就该做一次依赖盘点。新采购可以缓一缓,新功能不要先把 finetune 写进不可替换的核心路径。
| 问题 | 过去常见答案 | 现在更现实的答案 |
|---|---|---|
| 模型语气不稳定 | 微调一版 | 提示词模板、系统指令、评测集 |
| 企业知识接入 | 把资料训进去 | RAG、权限、索引、数据更新流程 |
| 多步骤任务失败 | 继续调模型 | agent 工作流、工具调用、状态管理 |
| 成本太高 | 训小模型替代 | 推理优化、缓存、模型路由 |
| 需要差异化能力 | 微调平台模型 | 开源模型后训练、RLFT、专用评测 |
这张表里的变化,就是这次新闻的核心。
微调不再是第一反应。它变成了成本、数据和评测都到位之后的选项。
谁该放下微调,谁还得继续做
我更在意的不是“微调有没有用”。这个问题太粗。
真正该问的是:你有没有能力从微调里赚回成本。
微调有几道门槛。高质量数据。稳定评测。可回滚部署。推理成本账本。持续迭代能力。
少一个,微调都容易变成玄学工程。很多团队以为自己在训练模型,其实只是把脏数据、含糊需求和产品焦虑固化进参数里。
普通 80% 的 AI 应用场景,应该先少碰微调。
企业知识库、客服、内部助手,优先做 RAG、权限、日志、评测和人工兜底。垂直 SaaS 的 AI 功能,优先做工作流编排、工具调用、模型路由和成本监控。
这类团队接下来该做的动作很具体:
- 盘点是否依赖即将弃用的 finetuning API;
- 新项目不要默认采购微调方案,先做 RAG 和评测基线;
- 已经上线的微调模型,准备迁移和回滚路径;
- 把“效果提升”拆成准确率、延迟、token 成本、失败率,而不是只看演示效果。
但顶级应用是另一回事。
Cursor、Cognition 这类 AI coding 和 agent 产品,被讨论到增加 open model RLFT 与后训练投入,并不反常。它们不是在做“客服语气更像品牌”。它们要的是特定任务上的稳定能力、低延迟、可控成本和产品壁垒。
到这个层级,微调又变得重要。
开源模型团队也一样。后训练、部署栈、硬件适配、自定义推理系统,仍然可能离不开微调和 RLFT。尤其当团队有自己的数据飞轮和评测体系,微调就不只是提升效果,而是在拿回控制权。
“天下熙熙,皆为利来。”技术路线从来不是按优雅程度排序,而是按成本、控制权和商业回报排序。
真正退潮的是“人人都该微调”的幻觉
微调的问题不在技术本身。问题在于,它太容易被包装成捷径。
过去两年,很多团队一遇到模型不听话,就想微调。现在更好的顺序应该是:先写清提示词,再用长上下文,再接 RAG,再拆 agent 流程,再看推理成本。
如果这些都没做扎实,微调大概率是在绕路。
长上下文正在吃掉一部分“行为定制”需求。检索正在吃掉一部分“知识注入”需求。agent 编排正在吃掉一部分“复杂任务能力”需求。推理系统优化正在吃掉一部分“训小模型省钱”的需求。
边界也要说清。
如果知识频繁更新,RAG 往往比微调干净。如果需求是固定格式输出,提示词和评测可能更快。如果失败来自流程混乱,调参数没用。如果瓶颈在 token 成本,模型路由、缓存和推理优化更直接。
但如果你有稳定高质量数据、有专用评测、有部署能力、有成本账本,微调仍然是硬工具。尤其是 AI coding、垂直 agent、开源模型基础设施和自研硬件路线。
历史上也常见这种回摆。铁路、电力、互联网早期都经历过“人人都该上”的阶段,后来才分层:普通公司买服务,头部公司建基础设施。今天的微调也在走这条路。不完全一样,但权力结构很像。
真正该观察的,不是 OpenAI 会不会保留某个按钮。
更该看四件事:
| 观察变量 | 如果继续强化 | 对团队的含义 |
|---|---|---|
| OpenAI 后续 API 迁移说明 | 弃用范围扩大或接口收敛 | 减少对单一平台微调能力的绑定 |
| 长上下文价格和稳定性 | 成本继续下降 | 更多需求会被 prompt / context 吃掉 |
| 开源模型后训练工具链 | RLFT、评测、部署更成熟 | 头部应用会更愿意自建能力 |
| 推理成本压力 | GPU、延迟、吞吐继续卡住 | 微调要和系统优化一起算账 |
这才是分水岭。
模型能力越强,产品反而越容易虚。因为团队会误以为“再训一版”能解决组织、流程、数据和成本问题。
通常不能。
微调还在,但它不该继续充当焦虑止痛片。对多数团队,眼下更该补的是工程系统:能解释失败,能复现结果,能压住成本,能安全回滚。
OpenAI 这次收掉部分 finetuning API,提醒的不是“别再微调”。而是别把高级工具当默认架构。会算账的人留下,赌捷径的人会越来越难。
