加州中部一处未公开的美国军事基地里,几辆四座ATV在山路、沙地和没有标线的土路上跑。车里有人,但训练对象不是人,是Scout AI的模型Fury。
这家公司刚完成1亿美元A轮融资。它讲的故事,不是给军方做一套更硬的自动驾驶,而是让一个士兵用类似提示词的命令,调度无人地面车、无人机,甚至未来的自主武器群。
问题也从这里开始变味。车开得稳不稳,只是第一层。谁下命令、谁确认目标、谁为错误负责,才是这家公司真正把行业往前推的地方。
1亿美元买的不是车,是指挥层
这件事可以压缩成一张卡片。
| 维度 | 关键信息 |
|---|---|
| 公司 | Scout AI,成立于2024年,自称“frontier lab for defense” |
| 融资 | 2025年1月种子轮1500万美元;最新A轮1亿美元,由Align Ventures和Draper Associates领投 |
| 合同 | 已有约1100万美元美国军方技术开发合同,客户包括DARPA、Army Applications Laboratory等 |
| 模型 | Fury,基于现有LLM/VLA思路训练;具体底座未披露,只说使用知名hyperscaler资源 |
| 训练 | 未具名美国军事基地;ATV在山地、沙地、无标线道路上训练 |
| 近期场景 | 后勤补给、巡逻、车队协同 |
| 后续指向 | 无人机侦察,以及更敏感的自主武器应用 |
现场训练并不神秘。真实车辆跑真实路况,人类在车上接管,再把接管数据喂回模型。
报道里提到,ATV能在约6.5公里环路上自主行驶。但它也会困惑、减速,需要人接手。换句话说,Scout还没有证明全场景自主,更没有证据显示它已经投入实战。
Scout更想先卖的软件叫Ox。它装在加固计算硬件上,让士兵同时指挥多辆无人车和多架无人机。命令可能很短,比如“去这个路点,观察敌方力量”。
这才是重点。它卖的不是单车智能,而是战场上的调度入口。
对关注AI与国防科技的读者,这意味着判断一家公司不能只看模型参数和融资额。要看它是否拿到军方技术开发合同,是否能接入真实载具,是否能把训练数据、硬件平台和采购路径连起来。
对关心自主武器和军事采购的人,动作更具体:别只盯“是否自动开火”这个终点。更早该盯的是指挥界面、任务边界、人类确认流程、接管记录和事故追责条款。这些东西听起来像文档,实际决定了权力怎么流动。
VLA进战场,难度和后果都变了
民用自动驾驶吃的是规则。车道线、红绿灯、高精地图、交通参与者的相对可预期,都是它的底盘。
战场刚好反过来。道路可能不存在,通信可能中断,目标会伪装,敌人还会故意制造异常。
这也是Scout押注VLA的原因。VLA,也就是Vision Language Action模型,试图把视觉、语言命令和动作控制连起来。它不只是识别路面、转方向盘,还要理解地形、任务和威胁,再控制车辆或无人机行动。
这条路线有吸引力。军队不缺车,也不缺无人机。真正难的是把这些资产编成可用队形,让一个小单位能用更少人手完成更多任务。
运输水和弹药,夜间补给,前沿哨所巡逻,这些任务确实适合先自动化。危险、重复、脏活多,人力成本高。军方愿意试,也不奇怪。
但VLA从城市道路进战场,难度不是线性增加。
| 对比项 | 民用自动驾驶 | Scout这类战场AI |
|---|---|---|
| 环境 | 规则化道路、交通法规、固定标识 | 无标线道路、复杂地形、敌方干扰 |
| 目标 | 安全通行、减少事故 | 完成任务、保持机动、识别威胁 |
| 数据 | 城市道路数据更可规模化采集 | 真实战场数据稀缺,训练更依赖模拟、演训和接管数据 |
| 错误后果 | 交通事故、监管处罚、产品召回 | 误伤、任务失败、责任链断裂 |
| 关键约束 | 法规、保险、道路测试许可 | 交战规则、人类确认、军方采购与安全审查 |
所以我不太买账“自动驾驶换个客户”这个说法。它低估了环境,也低估了后果。
民用公司跑不通商业闭环时,最多烧钱、裁员、降估值。国防AI跑进采购体系后,失败不只是产品体验差。它可能变成部队训练方式、装备预算和作战流程的一部分。
当然,也不能反过来把它写成科幻片。Scout目前仍依赖真实车辆训练、仿真和人工接管数据。Fury还会犯糊涂。融资额不能直接折算成技术成熟度。
真正该问的是:它能不能从受限场景开始,把“人类指挥、多机执行、模型辅助判断”做成稳定流程。只要这一步成立,后面的争议就不会停在技术圈。
真正的分水岭是控制权
Scout已经在练无人机侦察,也在设想一组弹药无人机由更大的“quarterback”平台提供算力和指挥,在指定区域搜索隐藏坦克并攻击。
公司方面强调,可以限定地理区域,也可以要求人类确认。这个表述很关键。它说明争议点不是机器会不会自动驾驶,而是谁在什么时候按下战争决策的最后一层确认。
支持者有一套说法:自主武器并不新。热寻的导弹、地雷早就存在。更精确的无人系统,可能比盲打炮火更少误伤。
这套说法不能直接扔掉。现代战场上,低成本无人系统越来越多,让人类一架一架操控,确实不够用。乌克兰战场已经把这个压力摆到台面上。
但规模化恰恰是危险所在。
一个士兵从操控一辆车,变成指挥十辆车、几十架无人机。一个命令从“开到那里”,变成“搜索并攻击目标”。责任链会被软件界面、模型判断、通信链路和采购合同切成很多段。
出了错,谁负责?下命令的士兵,设规则的军官,训练模型的公司,还是批准采购的体系?
铁路和电报最初也常被包装成效率工具:运兵更快,传令更快。后来改变的不是单个工具,而是战争组织方式和权力半径。今天的AI军用化不完全一样,它改的不是运输速度,而是决策速度和杀伤可扩展性。
“天下熙熙,皆为利来。”放在国防AI上并不刻薄。资本要增长叙事,军方要低成本能力,模型公司要真实世界数据。三方一合拍,很多伦理问题就会被压成产品参数:控制范围、人类确认、误识别率、通信安全。
这些参数重要,但它们替代不了制度问题。
接下来最该盯三件事。
| 观察点 | 为什么重要 |
|---|---|
| 是否从后勤、巡逻进入带武器任务 | 场景一变,责任和风险都升级 |
| 人类确认到底怎么执行 | 是真实审批,还是界面上的形式动作 |
| 接管和误判数据是否可审计 | 没有记录,就没有追责,也没有可信改进 |
对AI创业者,这轮融资给出的信号很直接:国防采购正在接住一部分“具身智能”叙事。民用机器人还在找付费场景,军方已经有预算、有硬件、有痛点。团队迁移会发生,人才也会被吸过去。
对政策和行业观察者,更现实的动作不是喊停所有军用AI。那很难,也不诚实。该做的是把采购门槛前移:任务边界写清,人类确认写实,训练数据和接管记录能审,事故责任不能外包给模型。
Scout这轮融资的信号已经足够清楚。AI创业正在从聊天框、办公流、机器人实验室,进入军事采购的深水区。它也许会先从送弹药、巡逻、车队协同做起,听上去灰度很低。但路径一旦铺好,下一站就不会只停在后勤。
Scout真正要证明的,不是Fury能不能在沙地上开过去。更难的是,当它能开过去、看见目标、理解命令之后,人类还剩多少真实控制权。
