Import AI 第456期有一个反常点:它讨论的三件事,看起来不在同一张桌上。
一件是AI治理。政府到底该不该提前建能力。
一件是计算机。神经网络能不能变成一种新的“电脑”。
还有一件更大。递归自我改进,也就是AI帮助改进AI,会不会把经济增长推到爆炸区间。
这三条线放在一起,真正的问题不是“奇点是不是到了”。目前没有证据支持这种说法。
更有价值的判断是:AI的影响正在越过应用层,进入治理制度、计算基础设施和宏观增长模型。它不再只是某个部门买不买工具的问题,而是在改变“谁有能力判断风险、谁掌握计算入口、谁能放大研发效率”。
这才是本期最值得读的地方。
治理:别急着筑墙,先要有能力看见风险
Institute for Law & AI 提出的“激进可选性”,不是一句“加强监管”。它的重点更具体:政府先建设未来可能用得上的能力。
包括信息获取、强制报告、第三方审计、举报人保护、模型评估、安全标准、人才招聘和跨部门协调。
换句话说,不是马上把所有AI公司锁进重监管框架,而是先让政府拥有判断力。没有数据、没有人才、没有评测能力,监管条文写得再硬,也容易变成纸面工程。
这里和常见监管路线有区别。
| 路线 | 主要做法 | 好处 | 现实限制 |
|---|---|---|---|
| 先重监管 | 先划风险等级、合规义务和处罚边界 | 规则清楚,企业知道红线 | 容易滞后,也可能压住正常创新 |
| 先建能力 | 先做信息获取、审计、评估和人才储备 | 面对新风险时更有选择 | 需要预算、技术人才和跨部门协调 |
| 放任观察 | 等问题更明确后再行动 | 短期成本低 | 真出事时可能没有工具可用 |
“激进可选性”更接近第二种。它不是不监管,而是把监管前置成能力建设。
我更在意的是它的边界。原文也没有回避这一点:政府权力扩张后,可能被滥用;灵活监管也可能绕开公开征询和民主程序。
所以这条路的难点不是喊“安全”。难点是把能力建起来,同时把权力关进程序里。
对政策和监管团队来说,比较现实的动作不是马上加码所有许可制,而是先补三件事:能不能拿到关键模型信息,能不能独立评测,能不能留住懂模型和算力的人。
对AI公司来说,影响也很直接。未来合规成本未必只来自一部新法,也可能来自更频繁的评测、审计、事故报告和安全文档要求。现在还把这些当公关材料做的团队,会越来越吃力。
主线要拉回来:这不是“管不管”的老问题,而是“危机来之前,有没有能力管”。
技术:神经计算机很大胆,但还不能替代操作系统
Meta 与 KAIST 的《Neural Computers》论文,提出了一个很尖的问题:如果神经网络能学习计算、记忆和输入输出,它会不会变成一种新的计算机?
这个设想的力度在于,它不只是让模型调用软件,而是把操作系统、界面和部分软件逻辑吸收到模型权重中。
听起来很激进,但证据要压住。
目前论文展示的还是 CLI 和 GUI 原型验证。它用 Wan 2.1 等生成式视频模型,学习基础命令行流程、短程控制和界面对齐。它能说明方向有意思,不能说明传统计算机已经被替代。
传统电脑可靠,是因为工程分层清楚。硬件、操作系统、文件系统、应用程序,各做各的事。出错时也能定位、回滚、验证。
神经计算机若要走到基础设施层,至少要回答三个问题:
| 问题 | 为什么重要 | 当前状态 |
|---|---|---|
| 可复用 | 同一能力能否稳定迁移到新任务 | 仍处原型阶段 |
| 可验证 | 输出和状态能否被检查、追责 | 还不成熟 |
| 可治理 | 出错、越权、误操作时谁负责 | 远未形成工程规范 |
这对企业IT和开发者的影响,不是“马上换掉操作系统”。这个判断不成立。
更现实的变化在旁边发生:AI代理、虚拟桌面、自动化测试、人机界面会继续融合。开发团队可以先把预算放在低风险场景,比如测试脚本生成、界面自动巡检、内部流程自动化,而不是押注一套还不存在的神经操作系统。
采购侧也应当延后大规模替换决策。看演示可以,迁移核心系统不急。银行、工业控制、政务流程这类场景,更不能把“能演示”当成“能托付”。
这条线的价值,是提前提醒我们:软件边界会变软。但边界变软,不等于工程约束消失。
经济:RSI模型真正指向的是研发自动化的阈值
Forethought、哥伦比亚大学和弗吉尼亚大学研究者的经济模型,把递归自我改进放进创新网络中测算。
它给出的阈值很醒目:全行业约13%任务自动化,或仅软硬件研究约17%自动化,可能进入爆炸增长区间;如果只看硬件研究,约20%自动化也可能跨过阈值。
这些数字不能当成预测日期。它们来自模型推演,依赖一组假设。
更该看的,是模型把哪根杠杆抬高了:硬件研发,尤其是半导体设计。
论文认为,硬件研究回报约为软件的5倍、总体全要素生产率研究的10倍。这个判断如果成立,芯片设计自动化就不只是降本工具,而会成为AI改进AI的放大器。
逻辑很短:AI提高研发效率,研发改善芯片和算力,算力再提高AI能力。循环一旦变快,增长模型就会被改写。
但这里仍有几个看不清的地方。
AI到底自动化了多少研发任务?自动化的是简单代码补全,还是实验设计、芯片布局、验证流程?这些环节对最终研发效率的贡献不同。
所以接下来最该观察的,不是哪家公司口号更大,而是更硬的数据:
| 观察对象 | 关键问题 | 谁最该看 |
|---|---|---|
| AI公司研发流程 | 代码、实验、评测有多少由模型完成 | 投资人、监管机构 |
| 芯片设计与EDA | 布局、验证、调参是否被显著自动化 | 芯片公司、云厂商 |
| 算力投入产出 | 更多算力是否稳定转化为更强模型 | AI基础设施团队 |
| 安全评估能力 | 能否跟上模型能力增长速度 | 政策制定者 |
这也是治理线和经济线的交汇点。
如果研发自动化真的接近阈值,政府等到“明确灾难”再行动就太晚。可如果自动化效率被高估,过早用重监管压住研发,也会付出成本。
所以比较稳的做法,是先建监测和评估能力。把数据拿到,把指标做实,把人才补齐。该出手时有工具,不该出手时也有理由克制。
回到开头那三个问题:治理、神经计算机、RSI经济模型,看似分散,其实都在提醒同一件事。
AI的风险和机会,不会总是以成熟产品的样子出现。很多时候,它先表现为能力建设的缺口:政府看不见,企业测不准,基础设施来不及适配。
等一切都清楚再准备,往往已经晚了。杞人忧天不可取,临渴掘井也一样危险。
