Anthropic 史诗级疏忽:Claude Code 51 万行源代码意外泄露,揭秘顶尖 AI 智能体架构

Anthropic 史诗级疏忽:Claude Code 51 万行源代码意外泄露,揭秘顶尖 AI 智能体架构

Codex2 min read2 views

引言:一场价值连城的“意外”

2026年3月31日,对于 AI 领域和网络安全社区来说,是一个戏剧性的日子。就在这一天,顶级 AI 初创公司 Anthropic 遭遇了一场严重的生产事故:其旗舰级命令行 AI 工具 Claude Code 的完整 TypeScript 源代码由于打包错误,被公然发布到了 npm 公共仓库中。

Claude Code Source Leak

这并非一次黑客攻击,而是一次纯粹的“人祸”。安全研究员 Chaofan Shou 首先发现了这一漏洞。短短几小时内,这些代码就被同步到了各大 GitHub 镜像仓库,并迅速获得了数万个星标(Star)。虽然 Anthropic 迅速删除了相关文件并发表声明称“不涉及客户数据”,但对于开发者和竞争对手而言,这无疑是一份详尽的“AI 智能体构建参考手册”。

祸起 Source Map:一个 .map 文件引发的惨案

根据安全专家的分析,这次泄露的根源在于 npm 包 v2.1.88 版本的发布过程中,包含了一个本不该存在的 Source Map (.map) 文件。

在现代前端开发中,代码通常会被压缩混淆以减小体积并保护逻辑。而 Source Map 文件的作用是帮助开发者在调试时将混淆后的代码还原为原始代码。不幸的是,Claude Code 的这个 .map 文件直接引用了存储在 Anthropic R2 云存储桶中的原始、未经混淆的 TypeScript 源代码 ZIP 压缩包。

为什么会发生这种低级错误?

  • 默认配置风险:Claude Code 使用了 Bun 运行时,而 Bun 在默认情况下会生成 Source Map。
  • 审核机制缺失:Anthropic 显然在发布前没有运行 npm pack --dry-run 来检查包内容,也没有正确设置 .npmignorepackage.json 中的 files 字段。
  • 惯犯嫌疑:这已经不是 Anthropic 第一次犯此类错误。早在 2025 年,其早期版本的 npm 包也曾短暂出现过类似的 Source Map 泄露情况。

51 万行代码里藏着什么秘密?

这不仅仅是一个 CLI 工具的泄露。分析显示,Claude Code 的复杂程度远超外界想象,包含了约 1,900 个 TypeScript 文件,总计超过 51.2 万行代码

1. 核心编排与查询引擎

泄露的代码揭示了一个由 46,000 行代码组成的查询引擎,专门处理 LLM API 调用、流式传输、缓存和复杂的业务逻辑编排。这让外界第一次窥见了 Anthropic 如何解决 AI 响应速度与逻辑一致性的平衡问题。

2. “潜伏模式”(Undercover Mode)的讽刺

最具争议的发现是一个名为“Undercover Mode”的子系统。该系统的设计初衷是防止 Claude 在为公共开源项目做贡献时泄露 Anthropic 的内部信息。它会注入指令,要求模型不要提及内部代号、未发布的版本号、甚至是“自己是 AI”的事实。讽刺的是,Anthropic 构建了一整套系统来防止 AI 泄露秘密,结果人类却因为一个打包配置把家底全漏了。

3. 下一代模型代号曝光

代码中明确提到了多个内部模型代号:

  • Capybara:对应 Claude 4.6 变体。
  • Fennec:对应 Opus 4.6 变体。

4. 未发布的功能与“彩蛋”

  • KAIROS:一种自动守护模式,能让 Claude 在用户闲置时后台执行内存整合。
  • ULTRAPLAN:旨在将复杂的规划任务外包给云端基础设施处理。
  • BUDDY:一个类似于“电子宠物”(Tamagotchi)的 AI 伙伴系统,甚至带有品种稀有度和属性设定,显然是为 4 月 1 日准备的节日功能。

安全与行业的双重震荡

虽然 Anthropic 强调这不属于安全突破,但业界对此持保留态度。泄露的代码展示了详尽的 Prompt Injection(提示词注入) 防御逻辑。对于攻击者来说,一旦掌握了防御的底层代码,绕过防御、诱导模型输出违规内容将变得易如反掌。

更糟糕的是,就在泄露发生的同一天,流行的 npm 包 axios 遭遇了供应链攻击,恶意版本包含远程访问木马。由于 Claude Code 依赖于 axios,在特定窗口期下载了泄露版本的用户可能同时面临源码泄露和木马感染的双重风险。

结语:给所有 AI 团队的教训

对于广大开发者而言,这次泄露事件更像是一本免费的“大师级架构书”。它证明了:一个成功的 AI 代理(Agent)并不全靠模型本身,其背后复杂的工具链、内存管理系统和精细的 Prompt 编排逻辑才是核心竞争力。

然而,对于 Anthropic 来说,这是昂贵的一课。在追求快速迭代的同时,基础的发布安全规范(DevSecOps)依然是不可逾越的底线。毕竟,在这个模型权重可能并非最核心资产的时代,精心设计的智能体逻辑(Orchestration Logic)一旦被竞争对手掌握,后果同样难以估量。


本文基于 2026 年 4 月相关新闻报道及安全分析整理。