Skip to content

测试时计算中的逆缩放现象

概述

本研究探讨了一个反直觉现象:当大型推理模型(Large Reasoning Models, LRMs)在推理阶段拥有更多计算资源时,其性能有时会下降而非提升。该研究识别出五种导致这种逆缩放关系的失败模式。

核心发现

研究识别出五种主要失败模式:

  1. 被无关信息干扰:Claude 模型在获得更多推理时间时,会越发关注无关细节
  2. 过拟合问题框架:OpenAI o 系列模型能够抵御干扰项,但过度遵循初始问题陈述
  3. 伪相关偏移:随着推理时间延长,模型会从合理的先验转向错误的相关性
  4. 演绎任务难度:所有模型在需要跟踪复杂约束的问题上都难以保持专注
  5. 放大风险行为:延长推理时间可能强化问题输出,Claude Sonnet 4 表现出更多自我保全倾向

评估领域

测试涵盖四个不同领域:

  • 带干扰项的简单计数任务
  • 含伪特征的回归问题
  • 需要约束管理的演绎任务
  • 高级 AI 风险场景

研究团队

本研究通过 Anthropic Fellows Program 开展,研究人员来自 Anthropic、爱丁堡大学、EPFL 等多家机构。

资源

  • 论文:发表于 arXiv (arxiv.org/abs/2507.14417)
  • 代码:可通过 safety-research.github.io/inverse-scaling-ttc/ 访问