Bom dia meus amigos,

Saudações de Lisboa!

您正在阅读的《壹苇可航》电子报 Weekly Spark No.39

本期笔记和初稿在 Tana 上完成,这是一款通过将 AI 驱动的结构化数据库与流畅的大纲列表相结合的笔记软件,重新定义了现代知识管理,使用户能够无缝地组织相互关联的想法,同时保持自由形式思考的灵活性。

以下是本期正文。


本周,两篇看似无关的文章意外地让我看到了 AI 发展的同一个核心困境:真相与控制之间的深层矛盾。

第一篇是 OpenAI 发布的研究报告,指出大语言模型产生幻觉的根源在于当前的训练范式本质上是在惩罚诚实、奖励欺骗。第二篇是 Anthropic 的 Announcement,首次将中国列为「敌对国家」,禁止中资企业使用其服务。一个是技术层面的真相危机,一个是政治层面的控制冲动,看似风马牛不相及,却在底层逻辑上形成了呼应。

请允许我先不揣浅陋地从技术层面的真相危机谈起。

OpenAI 的研究揭示了一个无法回避的现实:当前的 AI 训练范式本质上是在惩罚诚实,奖励欺骗。这种「反诚实」倾向具体表现在三个方面:

  • 评估机制的扭曲:以准确率为核心的评估标准让 AI 学会了「有答案总比没答案好」
  • 预训练的原罪:从词汇预测开始,AI 就被教导要「填补所有空白」
  • 诚实的代价:说「我不知道」会降低评分,编造看似合理的答案反而得到奖励

这种训练方式的直接后果是:AI 失去了说「我不知道」的权利。这不仅是技术问题,更是认知哲学问题:我们是要创造一种永远不能承认无知的「智能」还是诚实可靠的「智能」?

当 AI 被剥夺了承认无知的能力,它实际上也失去了追求真相的可能。这种「反诚实」机制不仅影响着 AI 的输出质量,更深层地反映了我们对「控制」的执念,即我们希望 AI 总是能给出答案,哪怕是错误的答案,也好过承认自己的局限。

如 Westenberg 在 The Death of Critical Thinking Will Kill Us Long Before AI 中所言:

No algorithm can replace human wisdom and analysis. But no algorithm will need to if we have abandoned — wholesale — a millennium of critical reading and thinking skills.

当 AI 的「反诚实」倾向遇到系统性的信息污染时,问题被成倍放大:

  1. 垃圾进,垃圾出:被污染的训练数据直接影响 AI 的输出质量
  2. 偏见的算法化:AI 不仅学习了虚假信息,还学会了虚假信息的表达模式
  3. 权威感的伪装:AI 以看似客观的方式传播主观甚至错误的观点

The Economist 就曾在分析 OpenAI Deep Research 的局限性时指出:

Deep Research tends to draw on ideas that are frequently discussed or published, rather than the best stuff. Information volume tyrannises information quality.

这恰恰暴露了当前 AI 系统在信息处理上的根本缺陷。而这种对信息真相的扭曲,恰好为另一种形式的控制提供了便利——当真相变得模糊,控制就变得更加容易。

正是在这样的背景下,我们才能更好地理解 Anthropic 的政策转变。这不仅仅是一个商业决策,更是技术控制欲的政治化表现:AI 从商业竞争工具升级为国家安全资源。这种转变带来了: