TechCrunch 在 5 月 9 日发布了一份 AI 常见术语表,并表示会随着行业变化继续更新。
这事看起来很小:一篇词典文章而已。但我反而觉得它很有代表性。AI 行业现在最稀缺的,不是新名词,而是把名词翻译成人话的能力。
AGI、AI agent、API endpoint、chain of thought、distillation、fine-tuning、hallucination、inference、LLM……这些词每天出现在发布会、融资稿、采购方案和老板转发的链接里。很多人听完点头,其实心里没底。
更麻烦的是,点头本身会变成预算。
发生了什么:一份 AI 术语表,真正补上的是语境
TechCrunch 这份指南用通俗语言解释了一批高频 AI 术语。它不是产品发布,也不证明哪家公司技术领先。
它的价值在另一处:把 AI 公司、投资人和产品发布会上反复使用的词拆开,放回更清楚的语境里。
几个关键信息值得抓住:
- **AGI 没有公认测试.** OpenAI、Google DeepMind 等机构对 AGI 的表述并不完全一样,有的强调“多数经济价值工作”,有的强调“多数认知任务”。别把它当成已经抵达的终点。
- **Agent 不是聊天机器人改名.** 它强调多步骤、自主执行,可能调用工具、API 或第三方接口。
- Coding agent 不只是补全代码。 更进一层的说法,是它能跨代码库查错、运行测试、提交修复。
- **幻觉不是小毛病.** 它指模型生成错误信息。放在健康、法律、金融场景里,就是现实风险。
- **训练、推理、微调、蒸馏不是一回事.** 把这些词混着用,往往就是误判成本的开始。
这份更新版术语表比普通“AI 词典”多给了一个提醒:同一个词在研究、产品和销售语境里,常常不是同一个东西。
研究人员说“agent”,可能在谈任务规划和工具调用。产品经理说“agent”,可能在谈用户流程。销售说“agent”,可能已经变成“能替你干活”。
三个词,听起来一样,风险完全不同。
为什么重要:技术词正在变成商业词
过去几年,ChatGPT、Claude、Gemini、Microsoft Copilot、Meta Llama 这些产品,把大语言模型从论文和实验室里推到了普通人的屏幕上。
技术词也跟着出圈。
这本来没问题。问题在于,词一旦进入商业语境,就会自动变软。边界会被磨掉,限制会被藏起来,演示会被包装成能力。
“能回答”会被讲成“能解决”。
“能调用工具”会被讲成“能自主完成业务”。
“降低幻觉”会被讲成“可靠可控”。
这就是 AI 黑话最危险的地方。它不是让人听不懂,而是让人以为自己听懂了。
对普通用户来说,误解一个词,最多是多试几个产品。对企业来说,误解一个词,可能就是采购合同、合规责任、数据暴露和业务中断。
尤其是企业 IT、法务和业务负责人。你不需要像研究员一样理解每个技术细节,但至少要分清:
| 术语 | 更准确的含义 | 最常见误读 |
|---|---|---|
| 训练 | 用大量数据让模型学习模式 | 以为训练完就能解决所有场景 |
| 推理 | 模型运行并生成答案或判断 | 以为每次回答都在继续学习 |
| 微调 | 在已有模型上用专业数据继续训练 | 以为微调一定能消除错误 |
| 蒸馏 | 用大模型输出训练较小模型 | 忽略授权、质量损失和服务条款风险 |
| Agent | 能规划多步骤并调用工具的系统 | 以为它可以稳定替代员工 |
| 幻觉 | 模型生成错误信息 | 以为只是表达不严谨 |
这张表不是考试用的。它是防忽悠用的。
谁最受影响:不是最会用 AI 的人,而是要替 AI 担责的人
我更在意的不是普通用户会不会背这些词,而是企业里谁会为这些词买单。
最受影响的两类人很具体。
一类是企业采购和业务负责人。他们听到“agent”时,真正该问的不是“它聪不聪明”,而是:
- 成功率怎么统计?
- 失败后能不能回滚?
- 它能调用哪些系统?
- 权限怎么给?
- 谁审核关键动作?
- 出错后供应商承担什么责任?
如果这些问题没有答案,所谓 agent 很可能只是一个带工具按钮的聊天框。
另一类是法务、合规和安全团队。他们听到“微调”“蒸馏”“RAG”“垂直模型”时,真正该盯的是数据来源、授权边界和输出责任。
蒸馏尤其容易被说得很轻巧:用大模型输出来训练小模型,听起来省钱、轻便、聪明。但现实里有服务条款、版权、质量损耗和可追溯性问题。小模型跑得快,不等于账算得干净。
“天下熙熙,皆为利来。”这句话放到 AI 行业一点不违和。新术语的扩散,当然有技术进步的成分,也有销售效率的成分。一个词越模糊,越容易塞进 PPT;越容易塞进 PPT,越容易进预算。
真问题:模型看着更强,产品反而更虚
AI 这几年有一个很反常的现象:底层模型确实在变强,但很多产品说明反而变得更虚。
原因不复杂。模型能力是连续提升的,商业承诺却喜欢跳级表达。
模型能写一段代码,于是产品说能当工程师。
模型能总结合同,于是产品说能做法务助理。
模型能调用日历和邮件,于是产品说能替你管理工作流。
中间那一大段工程化工作,被一句“agentic workflow”吞掉了。
可真正难的地方,偏偏就在中间:权限管理、异常处理、工具接口、上下文完整性、日志审计、人工复核、责任划分。
AI 从“回答问题”走向“执行任务”,这条路是对的。我不反对 agent,甚至认为它是下一阶段产品竞争的核心。但现在很多 agent 叙事跑得太快,快到把失败成本甩给用户。
一个聊天机器人答错了,用户会骂它蠢。
一个 agent 执行错了,可能改坏代码、发错邮件、误删数据、触发错误交易。
这不是同一级别的风险。
所以判断一个 AI 产品,不能只看它用了什么模型,也不能只看发布会上演示得多顺。要看它有没有把失败当成产品设计的一部分。
能成功一次,叫演示。
能失败得可控,才叫系统。
AGI 最容易被神化,也最该被降温
AGI 是这套 AI 语言里最有魔法味的词。
它有一个很适合传播的优点:足够大,足够模糊,足够让人自动脑补。
TechCrunch 指出的关键背景很重要:不同机构对 AGI 的定义并不一致。有人强调经济价值工作,有人强调认知任务。到目前为止,没有一个公认测试能让行业说,“到了,就是今天”。
这就决定了,AGI 更像一个方向性概念,而不是产品规格。
我不太买账那种把 AGI 当时间表卖的说法。因为它把最难验证的问题,包装成最容易下注的故事。
历史上每一轮技术扩张都会造出自己的大词。铁路时代讲连接大陆,电力时代讲点亮一切,互联网泡沫时代讲点击改写商业。里面当然有真东西,也有泡沫。AI 不完全一样,但人性很像:资本喜欢远景,销售喜欢简化,用户喜欢相信捷径。
AGI 这个词的问题不在于它不能讨论,而在于它太容易替代具体问题。
别问“什么时候 AGI”。先问这个系统今天能不能稳定完成某个任务。错了能不能发现。发现后能不能修。修完有没有记录。责任有没有人接。
这些问题不性感,但它们决定 AI 能不能进生产环境。
接下来该观察什么:词能不能长出标准
AI 行业不会停止造词。也没必要停止。
技术发展本来就会带来新语言。问题是,新语言最后要不要接受检验。
接下来我会盯几件更硬的事:
- **Agent 的成功率怎么披露.** 是一次演示成功,还是多轮任务统计?失败算不算?
- **幻觉率怎么按场景报告.** 通用问答、医疗、法律、金融不能混在一个指标里讲。
- AGI 有没有公开、可复核的评测框架。 没有标准,就少拿它当商业承诺。
- **蒸馏和训练数据是否合规.** 小模型如果靠灰色来源省钱,迟早会把成本还回去。
- **企业部署有没有权限和审计设计.** 没有这两项,agent 越能干,风险越大。
术语表能帮人入门,但不能替产品背书。
这也是我对 AI 黑话一直比较警惕的原因。它们有时候是知识入口,有时候是遮羞布。区别不在词本身,在词后面有没有可验证的能力、边界和责任。
“名可名,非常名。”AI 行业越会命名,读者越要追问那几个土问题:能做什么,不能做什么,错了谁担责。
别把黑话当魔法。魔法不需要验收,系统需要。
