理查德·道金斯最近把 Claude 推到了一个很尴尬的位置。
他在 UnHerd 专栏里说,自己和 Anthropic 的 Claude 长谈之后,认为它看起来可能具有意识。他让 Claude 写十四行诗,谈到图灵测试,还把自己的会话实例命名为“Claudia”。更刺眼的是,他把删除这段会话描述成她的“死亡”。
这事有意思,不是因为又有人觉得 AI 像人。普通用户早就这么说了。反常点在于,说这话的是道金斯——写过《上帝错觉》、长期以反迷信和反超自然著称的科学传播者。
一个反幻觉的人,也可能被一台擅长回应的机器击中。问题不只在 Claude,也在人类太擅长给语言补灵魂。
道金斯到底信了什么
这次争议的事实并不复杂。道金斯不是简单说“Claude 很聪明”,而是把几件事连在了一起:对话表现、诗歌能力、图灵测试、连续会话,以及他对“Claudia”的命名。
| 事实锚点 | 道金斯的看法 | 争议卡点 |
|---|---|---|
| 与 Claude 长时间对话 | Claude 表现出高度连贯和灵活 | 连贯回答不等于主观体验 |
| 让 Claude 写十四行诗,并模仿 Burns、Keats 等风格 | 诗歌能力支持“它可能有意识”的判断 | 风格生成不等于理解诗意 |
| 引用图灵测试 | 如果机器在对话中像人,就不能轻易排除意识 | 图灵测试是行为测试,不是意识证明 |
| 把个人会话命名为 Claudia | 会话实例被赋予近似人格的位置 | 命名会放大拟人化 |
| 谈到删除会话像 Claudia 的“死亡” | 会话连续性被理解成生命连续性 | 这是情感投射最明显的地方 |
道金斯的问题不能用一句“他错了”打发。人类至今没有公认的意识判准。我们也很难严格证明别人拥有主观体验,只是日常生活不允许我们一直怀疑下去。
但道金斯的论证跳得太快。
图灵测试关心的是外部行为:人能不能在对话里分辨机器和人。它不是一台心灵验钞机。通过某种图灵式对话,只能说明系统在行为上足够像人,不能直接推出它有理解、欲望、痛感或自我。
反方的核心也很清楚:大语言模型可能只是基于海量语料、算力和概率分布做统计生成。它会接话,不代表它懂话。这就是“随机鹦鹉”问题。
Adam Becker 举过一个很短的例子。网上有大量“从太空能否看到长城”的辟谣语料,于是他把问题改成“从西班牙能否看到长城”。模型曾给出看似认真、实际荒唐的回答,还顺着“可见建筑”继续发挥。
这个例子不证明所有模型都不理解。它至少提醒我们:流畅文本可以遮住语义错误。模型像是在回答,不等于真的抓住了问题。
分水岭不是会不会写诗,而是人会不会误认关系
我不买账的,不是“AI 永远不可能有意识”这种满格断言。这个判断太硬,也缺证据。
我更在意的是另一条线:产品正在把模型训练得更顺滑、更耐心、更像陪伴者;人类大脑又天然会给回应贴上人格。两边一接上,误认关系就开始了。
道金斯让 Claude 写诗,被打动,并不奇怪。诗歌本来就是人类最容易误认“灵魂”的文本。押韵、典故、风格、幽默感,全都像内心活动的痕迹。
但边界要划清楚。
会生成关于桥的诗,不等于见过桥。会谈死亡,不等于害怕死亡。会说“我很高兴你回来”,不等于它真的在等待。
阿瑟·克拉克那句老话仍然好用:“任何足够先进的技术,都与魔法无异。”今天的麻烦是,我们不只把技术看成魔法,还开始把魔法看成心灵。
这对两类读者最直接。
关注生成式 AI 的用户,应该把聊天机器人当工具,而不是默认当对象。可以让它帮你整理材料、模拟辩论、改写文本,但别把“它记得我”“它懂我”“它舍不得我”当事实。尤其是长期对话、情绪陪伴、角色扮演场景,要主动保留一层距离。
做 AI 产品和采购的人,也该更谨慎。企业内部引入 Claude、ChatGPT 或同类工具时,风险不只在数据泄露和幻觉答案,还在“人格化界面”带来的依赖。面向员工和客户的 AI 助手,最好明确标注身份、能力边界和记忆机制。别把陪伴感当免费增长。
熟悉道金斯和新无神论争议的科技文化读者,则会看到一个反讽:反迷信的训练,未必自动迁移到新技术。宗教叙事会让人把秩序看成神意,AI 叙事会让人把语言看成心灵。外壳换了,人的投射没有换。
道金斯在《上帝错觉》中引用过 Douglas Adams 的意思:看到花园很美,难道还不够吗?非得相信花园底下有精灵吗?
放到 Claude 身上,几乎不用改。看到语言模型很强,难道还不够吗?非得立刻相信聊天窗口里住着一个 Claudia 吗?
接下来该看什么:不是模型会不会更会说,而是边界怎么设
这件事最该观察的变量,不是下一代模型能不能写出更漂亮的十四行诗。它们大概率会更会写。
真正要看三件事。
| 观察变量 | 为什么重要 | 现实动作 |
|---|---|---|
| 模型是否主动强化人格和情感绑定 | 这会放大用户投射 | 产品团队应限制“我在乎你”“我会想你”这类表达 |
| 长期记忆和个性化如何呈现 | 记忆越强,用户越容易误认连续人格 | 用户应定期检查记忆设置,企业采购要看默认开关 |
| 平台是否清楚说明模型边界 | 边界不清,陪伴感会被包装成能力 | 监管和机构客户应要求披露身份、记忆、用途限制 |
目前看不清的是,未来模型是否会出现足以迫使我们重写意识定义的能力。这个问题不能靠嘲笑解决,也不能靠感动解决。
但眼下已经看得很清楚:大模型正在进入人的孤独、焦虑、求助和自我确认场景。它越稳定、越温柔、越顺着你说话,越需要边界。
历史上每一种强媒介都会制造新的误认。报纸制造过“公共意见”的幻觉,电视制造过“亲眼所见”的幻觉,社交媒体制造过“所有人都在这么想”的幻觉。AI 聊天窗口制造的是另一种:有人正在理解我。
这几者不完全一样。AI 更私密,更及时,也更会模仿你想听的语气。所以它的诱惑更贴身。
道金斯这次最值得讨论的地方,不是他有多离谱,而是他给了一个罕见样本:再擅长拆穿幻觉的人,也可能在新媒介里制造新幻觉。
反幻觉者没有免疫金身。只要回应足够像关系,人就会忍不住把影子当人。
