一台装着 16 块 GPU 的小型数据中心,放在新建住宅旁边。居民不用自己买设备,SPAN 承担设备、电力和网络成本,还可能给备用电池和公用事业费用补贴。

这就是美国智能电气公司 SPAN 给出的 XFRA 方案。

它听起来像是 AI 基建版“算力入户”。有意思的地方也在这里:数据中心最难的事,本来是土地、接电、审批和社区反对。SPAN 试图把这些大问题拆小,塞进一栋栋住宅旁边。

我的判断是,这条路线有现实动机,但还不能被写成低成本数据中心已经跑通。它更像是一次压力转移实验:大型机房的难题少了一部分,住宅、电网和社区治理的难题多了一部分。

SPAN 的方案:把 AI 推理节点放到住宅侧

SPAN 计划在 2026 年做 100 户试点。到 2027 年,公司目标是扩展到 8 万个 XFRA 节点,形成超过 1GW 的分布式算力。

单个 XFRA 节点的配置,按 SPAN 说法包括:16 块 Nvidia RTX Pro 6000 Blackwell Server Edition GPU、4 个 AMD EPYC CPU、3TB 内存。它还会配套墙装智能电表面板、16kWh 电池,以及由 SPAN PowerUp 软件管理的负载系统。

居民端的激励很直白。SPAN 承担设备、电力和网络相关成本;住户可能支付约 150 美元固定公用事业费,也可能不收费。停电或调度事件中,住宅还可以使用备用电池维持部分电器运行。

但这里必须划清边界。

XFRA 主要面向 AI 推理、云游戏、流媒体等边缘任务。它不是把 hyperscaler 用来训练大模型的集中式数据中心搬进社区。训练集群需要成千上万块 GPU 高速互联,网络延迟、同步和稳定性要求很高。住宅旁的小节点,很难承担同一类任务。

关键问题SPAN 的说法现在看不清的地方
部署节奏2026 年 100 户试点,2027 年 8 万个节点试点城市、房企合作、监管许可未披露
单节点配置16 块 Nvidia RTX Pro 6000 Blackwell Server Edition GPU、4 个 AMD EPYC CPU、3TB 内存成本、散热、维护频率还需试点验证
用电条件住宅 200A 服务中常有 80A 可用容量这是 SPAN 说法,不能推到所有美国住宅
目标任务AI 推理、云游戏、流媒体不等于大型 AI 训练集群
居民收益电力、网络、设备成本由 SPAN 承担,可能收 150 美元固定费用或不收费噪音、限电优先级、保险、维修责任取决于合同

对关注 AI 基础设施的人来说,这个方案的意义不在“家家都有数据中心”。它更像是一种边缘算力选址方案:把推理负载尽量放到离用户更近的地方,减少部分集中建设压力。

对普通业主来说,判断方式要更朴素。不要只看“电费谁出”。签约前更该确认四件事:设备坏了谁修、噪音和散热怎么管、停电时家庭用电和节点用电谁优先、GPU 被盗或损坏由谁赔。

它绕开了大机房的阻力,却撞上配电末端

AI 数据中心在美国扩张,确实遇到越来越多硬约束。土地、用水、输电接入、建设周期、社区反对,都会拖慢算力上线。

SPAN 抓住的是这个矛盾:大型数据中心越来越难落地,而住宅本来接入电网,也靠近用户。如果住宅侧确实有闲置电力容量,分布式节点就可能更快部署。

这套逻辑成立一半。

大型数据中心的好处是边界清楚。几十到上百兆瓦的园区,冷却、安全、运维和网络都能集中设计。缺点也明显:审批慢,投资重,容易被社区盯上。

SPAN 的路线反过来。节点拆散后,土地和建筑压力可能下降,但复杂性会落到配电台区、宽带链路、住户合同和现场维护上。

哈佛法学院电力法项目负责人 Ari Peskoe 提到的担忧很关键:如果一个街区里多户住宅同时挂载节点,本地配电网络会承受集中负载。电网问题不是只看全国总容量,还要看变压器、线路和街区级峰值。

这对业主不是抽象问题。

夏天开空调,晚上给电动车充电,热泵、烘干机同时工作,这些负载本来就会挤在高峰时段。再加一个 GPU 节点,调度规则就很重要:谁先降载,谁先断电,谁承担不便。

对关心住宅能源的人来说,最现实的动作不是急着签约,也不是一口否定。更合理的是观望 100 户试点,看它是否公开三类信息:街区配电影响、居民实际用电体验、故障和维修响应时间。

对 AI 基建团队来说,这也不是立刻迁移算力的信号。更实际的做法,是把它当成边缘推理的备选基础设施观察,而不是替代现有训练集群或核心云资源的方案。

接下来要看试点里的四个硬变量

SPAN 曾声称,部署 8000 个 XFRA 单元的成本可比建设同等算力的典型 100MW 数据中心低五倍。这个说法有吸引力,但目前仍是商业承诺。

分布式节点确实可能省下部分土地、机房和建设成本。问题是,省下来的钱会不会在别处回来。

安装、现场维护、宽带接入、保险、安全、防盗、设备更换、居民投诉处理,都会变成真实成本。大机房把复杂性集中起来,小节点把复杂性摊开。摊开不等于消失。

技术侧也不能只看 GPU 数量。

宾夕法尼亚大学计算机架构专家 Benjamin Lee 的判断更接近问题核心:推理任务适合靠近用户分布,但不同推理任务差异很大。文档问答、代码生成、多轮对话、图像生成,对延迟、显存和吞吐的要求并不一样。

节点之间怎么互联,故障时怎么迁移负载,家庭宽带链路是否稳定,都会影响最终体验。如果性能不稳定,所谓“靠近用户”只能解决一部分问题。

安全风险更直观。

集中式数据中心有门禁、围栏、监控和安保。住宅旁的 GPU 盒子暴露在更复杂的环境里。单块高端 Nvidia GPU 价值可达约 1 万美元,物理盗窃、破坏、近距离攻击都不是纸面风险。

所以,2026 年的 100 户试点比 2027 年的 8 万节点目标更重要。目标数字只能说明野心,试点数据才说明可行性。

接下来最该盯四件事:

观察点为什么重要
配电压力看街区变压器和线路能否承受集中新增负载
居民合同看电费、网络、维修、保险、损坏责任如何分配
任务性能看推理、云游戏、流媒体是否真的比集中式部署更稳
物理安全看 GPU 被盗、破坏和现场运维成本是否可控

这四件事如果说不清,成本优势就很难成立。不是节点能点亮就叫可行,能长期、安静、安全地跑在居民区里,才算过关。

回到开头那台住宅旁的 GPU 盒子。它真正测试的不是 AI 算力能不能变小,而是责任能不能被切清。机房可以拆散,风险不能装作也跟着变轻。