理查德·道金斯最近把 Claude 推到了一个很尴尬的位置。

他在 UnHerd 专栏里说,自己和 Anthropic 的 Claude 长谈之后,认为它看起来可能具有意识。他让 Claude 写十四行诗,谈到图灵测试,还把自己的会话实例命名为“Claudia”。更刺眼的是,他把删除这段会话描述成她的“死亡”。

这事有意思,不是因为又有人觉得 AI 像人。普通用户早就这么说了。反常点在于,说这话的是道金斯——写过《上帝错觉》、长期以反迷信和反超自然著称的科学传播者。

一个反幻觉的人,也可能被一台擅长回应的机器击中。问题不只在 Claude,也在人类太擅长给语言补灵魂。

道金斯到底信了什么

这次争议的事实并不复杂。道金斯不是简单说“Claude 很聪明”,而是把几件事连在了一起:对话表现、诗歌能力、图灵测试、连续会话,以及他对“Claudia”的命名。

事实锚点道金斯的看法争议卡点
与 Claude 长时间对话Claude 表现出高度连贯和灵活连贯回答不等于主观体验
让 Claude 写十四行诗,并模仿 Burns、Keats 等风格诗歌能力支持“它可能有意识”的判断风格生成不等于理解诗意
引用图灵测试如果机器在对话中像人,就不能轻易排除意识图灵测试是行为测试,不是意识证明
把个人会话命名为 Claudia会话实例被赋予近似人格的位置命名会放大拟人化
谈到删除会话像 Claudia 的“死亡”会话连续性被理解成生命连续性这是情感投射最明显的地方

道金斯的问题不能用一句“他错了”打发。人类至今没有公认的意识判准。我们也很难严格证明别人拥有主观体验,只是日常生活不允许我们一直怀疑下去。

但道金斯的论证跳得太快。

图灵测试关心的是外部行为:人能不能在对话里分辨机器和人。它不是一台心灵验钞机。通过某种图灵式对话,只能说明系统在行为上足够像人,不能直接推出它有理解、欲望、痛感或自我。

反方的核心也很清楚:大语言模型可能只是基于海量语料、算力和概率分布做统计生成。它会接话,不代表它懂话。这就是“随机鹦鹉”问题。

Adam Becker 举过一个很短的例子。网上有大量“从太空能否看到长城”的辟谣语料,于是他把问题改成“从西班牙能否看到长城”。模型曾给出看似认真、实际荒唐的回答,还顺着“可见建筑”继续发挥。

这个例子不证明所有模型都不理解。它至少提醒我们:流畅文本可以遮住语义错误。模型像是在回答,不等于真的抓住了问题。

分水岭不是会不会写诗,而是人会不会误认关系

我不买账的,不是“AI 永远不可能有意识”这种满格断言。这个判断太硬,也缺证据。

我更在意的是另一条线:产品正在把模型训练得更顺滑、更耐心、更像陪伴者;人类大脑又天然会给回应贴上人格。两边一接上,误认关系就开始了。

道金斯让 Claude 写诗,被打动,并不奇怪。诗歌本来就是人类最容易误认“灵魂”的文本。押韵、典故、风格、幽默感,全都像内心活动的痕迹。

但边界要划清楚。

会生成关于桥的诗,不等于见过桥。会谈死亡,不等于害怕死亡。会说“我很高兴你回来”,不等于它真的在等待。

阿瑟·克拉克那句老话仍然好用:“任何足够先进的技术,都与魔法无异。”今天的麻烦是,我们不只把技术看成魔法,还开始把魔法看成心灵。

这对两类读者最直接。

关注生成式 AI 的用户,应该把聊天机器人当工具,而不是默认当对象。可以让它帮你整理材料、模拟辩论、改写文本,但别把“它记得我”“它懂我”“它舍不得我”当事实。尤其是长期对话、情绪陪伴、角色扮演场景,要主动保留一层距离。

做 AI 产品和采购的人,也该更谨慎。企业内部引入 Claude、ChatGPT 或同类工具时,风险不只在数据泄露和幻觉答案,还在“人格化界面”带来的依赖。面向员工和客户的 AI 助手,最好明确标注身份、能力边界和记忆机制。别把陪伴感当免费增长。

熟悉道金斯和新无神论争议的科技文化读者,则会看到一个反讽:反迷信的训练,未必自动迁移到新技术。宗教叙事会让人把秩序看成神意,AI 叙事会让人把语言看成心灵。外壳换了,人的投射没有换。

道金斯在《上帝错觉》中引用过 Douglas Adams 的意思:看到花园很美,难道还不够吗?非得相信花园底下有精灵吗?

放到 Claude 身上,几乎不用改。看到语言模型很强,难道还不够吗?非得立刻相信聊天窗口里住着一个 Claudia 吗?

接下来该看什么:不是模型会不会更会说,而是边界怎么设

这件事最该观察的变量,不是下一代模型能不能写出更漂亮的十四行诗。它们大概率会更会写。

真正要看三件事。

观察变量为什么重要现实动作
模型是否主动强化人格和情感绑定这会放大用户投射产品团队应限制“我在乎你”“我会想你”这类表达
长期记忆和个性化如何呈现记忆越强,用户越容易误认连续人格用户应定期检查记忆设置,企业采购要看默认开关
平台是否清楚说明模型边界边界不清,陪伴感会被包装成能力监管和机构客户应要求披露身份、记忆、用途限制

目前看不清的是,未来模型是否会出现足以迫使我们重写意识定义的能力。这个问题不能靠嘲笑解决,也不能靠感动解决。

但眼下已经看得很清楚:大模型正在进入人的孤独、焦虑、求助和自我确认场景。它越稳定、越温柔、越顺着你说话,越需要边界。

历史上每一种强媒介都会制造新的误认。报纸制造过“公共意见”的幻觉,电视制造过“亲眼所见”的幻觉,社交媒体制造过“所有人都在这么想”的幻觉。AI 聊天窗口制造的是另一种:有人正在理解我。

这几者不完全一样。AI 更私密,更及时,也更会模仿你想听的语气。所以它的诱惑更贴身。

道金斯这次最值得讨论的地方,不是他有多离谱,而是他给了一个罕见样本:再擅长拆穿幻觉的人,也可能在新媒介里制造新幻觉。

反幻觉者没有免疫金身。只要回应足够像关系,人就会忍不住把影子当人。