在3月3日,科技界上演了一场“代码大逃杀”。一向以“闭源”为傲的AI巨头Anthropic,由于一个简单的打包错误,将其Claude代码的完整源代码意外泄露。
一次59.8MB的意外
事件发生在一个普通的周二早晨。Web3安全公司FuzzLab的实习研究员Chao Fan Shou在检查Anthropic的npm包时,意外发现了一个不应存在的文件——59.8MB的“cli.js.map”。
本应用于开发调试的source map,因打包配置失误,将原始typescript源码完整嵌入在sourcesContent字段中。近2000个文件、5万行代码因此毫无遮掩地暴露在互联网上。
几小时内,源码迅速被上传至GitHub公库,夜间便收获了数万颗星标。有网友调侃:“这不是泄露,而是Anthropic为全球AI工程师提供的福利。”
隐藏功能全曝光
随着开发者们的深入探索,许多未曾公布的实验性功能逐渐浮出水面。
最令人意外的是名为“BUDDY”的电子宠物系统。它是一个完整的Tamagotchi,包含18个物种、不同的稀有度(从普通到闪光)、程序化属性,以及Claude在首次孵化时撰写的“灵魂描述”。代码中还提到4月1-7日为“预告窗口”,完整发布计划在5月。
更具雄心的是“KAIROS”——一个被称为“永远在线的克劳德”的自主守护进程。它将在后台持续运行,自动整理交互数据,通过“夜间做梦”机制整合记忆,使AI成为更懂用户的长期合作伙伴。
此外,ULTRAPLAN模式能够将复杂任务委托给云容器,提供最长30分钟的思考时间;而“卧底模式”则能在员工提交代码时自动抹去所有AI痕迹,以保护身份。
这不是第一次失误
讽刺的是,这并非Anthropic第一次遭遇类似问题。
早在2025年2月,Claude代码作为研究预览版发布时,也发生过同样的source map泄露。当时官方连夜下架旧版本,以补救失误。一年后,版本号从0.2.x提高到2.1.88,功能大幅增强,但流水线的配置显然未纳入CI/CD的检查清单。
更令人担忧的是,这已经是Anthropic在五天内的第二次安全事故。3月26日,由于CMS配置错误,约3000份未发布的资产被公开,包括下一代模型“mythos”的草稿博客文章。
护城河是否牢固?
估值600亿美金的Anthropic在核心模型方面已达到顶尖水平,但在基本的工程安全流程上却频频失误。这种“头重脚轻”的局面,暴露了AI行业的结构性矛盾:研究型团队擅长模型创新,却往往缺乏工程安全的意识和经验。
然而,泄露的代码并未削弱Anthropic的核心竞争力——模型能力、推理成本、云基础设施和品牌信任,这些都无法仅凭一份源代码复制。正如一位开发者所言:“这5万行代码撕掉的不是技术壁垒,而是神秘感。”
截至发稿时,Anthropic已通过DMCA投诉封禁了一些源码链接,但网络是有记忆的——代码一旦泄露,便无法回头。这场“野生发布会”,或许将成为AI行业在工程安全治理方面的警示。

