Import AI 第456期有一个反常点:它讨论的三件事,看起来不在同一张桌上。

一件是AI治理。政府到底该不该提前建能力。

一件是计算机。神经网络能不能变成一种新的“电脑”。

还有一件更大。递归自我改进,也就是AI帮助改进AI,会不会把经济增长推到爆炸区间。

这三条线放在一起,真正的问题不是“奇点是不是到了”。目前没有证据支持这种说法。

更有价值的判断是:AI的影响正在越过应用层,进入治理制度、计算基础设施和宏观增长模型。它不再只是某个部门买不买工具的问题,而是在改变“谁有能力判断风险、谁掌握计算入口、谁能放大研发效率”。

这才是本期最值得读的地方。

治理:别急着筑墙,先要有能力看见风险

Institute for Law & AI 提出的“激进可选性”,不是一句“加强监管”。它的重点更具体:政府先建设未来可能用得上的能力。

包括信息获取、强制报告、第三方审计、举报人保护、模型评估、安全标准、人才招聘和跨部门协调。

换句话说,不是马上把所有AI公司锁进重监管框架,而是先让政府拥有判断力。没有数据、没有人才、没有评测能力,监管条文写得再硬,也容易变成纸面工程。

这里和常见监管路线有区别。

路线主要做法好处现实限制
先重监管先划风险等级、合规义务和处罚边界规则清楚,企业知道红线容易滞后,也可能压住正常创新
先建能力先做信息获取、审计、评估和人才储备面对新风险时更有选择需要预算、技术人才和跨部门协调
放任观察等问题更明确后再行动短期成本低真出事时可能没有工具可用

“激进可选性”更接近第二种。它不是不监管,而是把监管前置成能力建设。

我更在意的是它的边界。原文也没有回避这一点:政府权力扩张后,可能被滥用;灵活监管也可能绕开公开征询和民主程序。

所以这条路的难点不是喊“安全”。难点是把能力建起来,同时把权力关进程序里。

对政策和监管团队来说,比较现实的动作不是马上加码所有许可制,而是先补三件事:能不能拿到关键模型信息,能不能独立评测,能不能留住懂模型和算力的人。

对AI公司来说,影响也很直接。未来合规成本未必只来自一部新法,也可能来自更频繁的评测、审计、事故报告和安全文档要求。现在还把这些当公关材料做的团队,会越来越吃力。

主线要拉回来:这不是“管不管”的老问题,而是“危机来之前,有没有能力管”。

技术:神经计算机很大胆,但还不能替代操作系统

Meta 与 KAIST 的《Neural Computers》论文,提出了一个很尖的问题:如果神经网络能学习计算、记忆和输入输出,它会不会变成一种新的计算机?

这个设想的力度在于,它不只是让模型调用软件,而是把操作系统、界面和部分软件逻辑吸收到模型权重中。

听起来很激进,但证据要压住。

目前论文展示的还是 CLI 和 GUI 原型验证。它用 Wan 2.1 等生成式视频模型,学习基础命令行流程、短程控制和界面对齐。它能说明方向有意思,不能说明传统计算机已经被替代。

传统电脑可靠,是因为工程分层清楚。硬件、操作系统、文件系统、应用程序,各做各的事。出错时也能定位、回滚、验证。

神经计算机若要走到基础设施层,至少要回答三个问题:

问题为什么重要当前状态
可复用同一能力能否稳定迁移到新任务仍处原型阶段
可验证输出和状态能否被检查、追责还不成熟
可治理出错、越权、误操作时谁负责远未形成工程规范

这对企业IT和开发者的影响,不是“马上换掉操作系统”。这个判断不成立。

更现实的变化在旁边发生:AI代理、虚拟桌面、自动化测试、人机界面会继续融合。开发团队可以先把预算放在低风险场景,比如测试脚本生成、界面自动巡检、内部流程自动化,而不是押注一套还不存在的神经操作系统。

采购侧也应当延后大规模替换决策。看演示可以,迁移核心系统不急。银行、工业控制、政务流程这类场景,更不能把“能演示”当成“能托付”。

这条线的价值,是提前提醒我们:软件边界会变软。但边界变软,不等于工程约束消失。

经济:RSI模型真正指向的是研发自动化的阈值

Forethought、哥伦比亚大学和弗吉尼亚大学研究者的经济模型,把递归自我改进放进创新网络中测算。

它给出的阈值很醒目:全行业约13%任务自动化,或仅软硬件研究约17%自动化,可能进入爆炸增长区间;如果只看硬件研究,约20%自动化也可能跨过阈值。

这些数字不能当成预测日期。它们来自模型推演,依赖一组假设。

更该看的,是模型把哪根杠杆抬高了:硬件研发,尤其是半导体设计。

论文认为,硬件研究回报约为软件的5倍、总体全要素生产率研究的10倍。这个判断如果成立,芯片设计自动化就不只是降本工具,而会成为AI改进AI的放大器。

逻辑很短:AI提高研发效率,研发改善芯片和算力,算力再提高AI能力。循环一旦变快,增长模型就会被改写。

但这里仍有几个看不清的地方。

AI到底自动化了多少研发任务?自动化的是简单代码补全,还是实验设计、芯片布局、验证流程?这些环节对最终研发效率的贡献不同。

所以接下来最该观察的,不是哪家公司口号更大,而是更硬的数据:

观察对象关键问题谁最该看
AI公司研发流程代码、实验、评测有多少由模型完成投资人、监管机构
芯片设计与EDA布局、验证、调参是否被显著自动化芯片公司、云厂商
算力投入产出更多算力是否稳定转化为更强模型AI基础设施团队
安全评估能力能否跟上模型能力增长速度政策制定者

这也是治理线和经济线的交汇点。

如果研发自动化真的接近阈值,政府等到“明确灾难”再行动就太晚。可如果自动化效率被高估,过早用重监管压住研发,也会付出成本。

所以比较稳的做法,是先建监测和评估能力。把数据拿到,把指标做实,把人才补齐。该出手时有工具,不该出手时也有理由克制。

回到开头那三个问题:治理、神经计算机、RSI经济模型,看似分散,其实都在提醒同一件事。

AI的风险和机会,不会总是以成熟产品的样子出现。很多时候,它先表现为能力建设的缺口:政府看不见,企业测不准,基础设施来不及适配。

等一切都清楚再准备,往往已经晚了。杞人忧天不可取,临渴掘井也一样危险。