@袁毓林:《ChatGPT等语言大模型到底做对了什么
核心观点摘要
- 核心问题: LLM 如何能生成通顺、连贯且内容合理的文本?
- 核心论点: LLM 并非只会转换符号的“中文房间”,而是能通过文本重构世界模型的“柏拉图洞穴”。
- 核心机制: 通过“预测下一个词”的任务,倒逼模型从海量文本中学习语法、逻辑和世界知识,并将其压缩存入模型权重。
- 核心结论: 即使语言主要是一种交际工具而非思维本身,但因其承载了丰富的世界知识,LLM 依然是通往通用人工智能 (AGI) 的有效路径。
一、机器与人类智能的对比
机器智能:莫拉维克悖论 (Moravec's paradox)
- 对机器而言:
- 困难问题 (如下棋、推理) → 相对容易
- 简单问题 (如感知、行动) → 极其困难
人类智能:“快思”与“慢想” (Kahneman)
- 系统 1 (快思):
- 自动、直觉、快速、情绪化
- 处理日常熟悉任务,但容易出错
- 系统 2 (慢想):
- 刻意、费力、逻辑推理
- 处理复杂、新颖的问题,更准确
吊诡的互补与挑战
- 机器擅长 → 人类的“慢想” (系统 2)
- 人类擅长 → 人类的“快思” (系统 1)
- LLM 的表现:
- 在许多人类依赖直觉易出错的问题上,表现出强大的“慢想”分析能力,能够正确求解。
二、LLM:“中文房间”还是“柏拉图洞穴”?
核心疑问:LLM 真能“理解”吗?
- “中文房间”隐喻: 认为机器只是在进行无意义的符号操纵。
- “柏拉图洞穴”隐喻:
- 现实世界 → 洞穴外的实体
- 自然语言文本 → 实体投射在墙壁上的“影子”
- LLM 的角色 → 洞穴里的囚犯
- 结论: LLM 通过观察海量的“影子”(文本),反向重构和理解了“实体”(世界)的结构和规律。
世界模型的构建:以“桌子”为例
- LLM 无需接触真实桌子。
- 通过分析语料中无数关于“桌子”的句子,可以学习到其:
- 物理属性: 材质、结构、形状、尺寸
- 功能用途: 吃饭、写字、放置物品、打牌、藏身
- 互动关系: 搬、坐、踢、擦、围绕
- 最终,LLM 在内部构建了一个关于“桌子”的、功能完备的 世界模型 (World Model)。
三、奠基者对 LLM 的见解
核心机制:预测下一个词 (Next Token Prediction)
- 这一看似简单的任务,是驱动 LLM 发展出理解能力的根本保障。
- 为准确预测,模型必须学习语言内在的规律和其所描述的世界知识。
辛顿 (Hinton) & 苏兹凯维 (Sutskever) 的观点
- 预测即压缩,压缩即智能:
- 为了高效预测(压缩信息),模型必须发现并学习数据(文本)背后的深层结构和因果关系,即 世界模型。
- 理解即特征交互:
- 词义并非孤立存在,而是由一堆 语义特征 (Semantic Features) 组成。
- LLM 的“理解”就体现在其能计算这些特征间的复杂交互,从而推断出最合理的下一个词。
- 这不是统计,而是理解:
- 这超越了简单的“N-gram”统计,是在理解“创造了这些统计数字的那个世界”。
四、LLM 的感觉与幻觉
LLM 有“感觉”吗?
- 反方 (如李飞飞):
- LLM 没有身体 (embodiment),因此无法拥有真实的主观生理体验。
- “我饿了”对 LLM 只是一个高概率序列,对人类则是真实的生理信号。
- 本文观点:
- LLM 没有感觉,但拥有关于感觉的知识。
- 类似先天失明者虽看不到颜色,但能通过语言交流,学习到“太阳是红的”、“天空是蓝的”等知识。
- LLM 通过文本,学习到了“饥饿”的 原因、后果、相关行为和生理描述。
LLM 为何产生“幻觉” (Hallucination)?
- 根本原因: 其 概率性 (probabilistic) 的生成本质。
- 工作方式: LLM 是一个“统计学老虎机”,其输出本质上是基于概率的“猜测”,而非从数据库中检索的确定性事实。
- 不可避免性: 随机因素的存在使得幻觉和错误不可完全避免,但可以通过更优的数据和机制(如事实核查)来降低频率。
五、结语:语言的交际属性不阻碍 LLM 通往 AGI
语言:交际工具 vs. 思维工具
- 近期脑科学观点 (Fedorenko 等): 语言网络与思维网络在人脑中分离,语言主要用于 文化和知识传递(交际),而非思维的必要基础。
- 由此引发的担忧 (LeCun 等): 如果语言非思维本身,那么专攻语言的 LLM 路线可能是错误的。
本文最终论点
- 语言是世界知识最重要的来源: 即使语言只是交际工具,它也是承载和反映人类对外部世界和内心世界认识的最主要媒介。
- 掌握语言 → 掌握世界模型:
- 通过深度学习海量文本,LLM 能够构建一个足够近似和有效的世界模型。
- 基于这个模型,LLM 能够完成复杂的判断、推理和决策任务。
- 结论: LLM 路线不仅没有走错,反而是通往 AGI 的一条充满希望的康庄大道。