Anthropic封杀OpenClaw+DeepSeek V4灰度+Mercor训练数据泄露:4月4日AI圈三件事,每一件都在改规则
前言
2026年4月4日,AI圈没有给任何人喘息的机会。昨天微软MAI三件套+Qwen3.6+Gemma 4三连爆的热度还没散,今天又来了三颗炸弹——而且每一颗都在改写行业规则。
事件一:Anthropic宣布Claude订阅不再覆盖OpenClaw等第三方工具的使用量,从今天太平洋时间中午12点起正式生效。数百万用Claude订阅跑OpenClaw的开发者,一夜之间成本从$20/月变成了按量付费。
事件二:DeepSeek V4灰度测试曝光,SWE-bench Verified 83.7%,超过GPT-5和Claude Opus。自研Engram记忆机制、338种编程语言支持、百万级上下文——如果这些数据属实,开源编程模型的格局要变了。
事件三:AI数据供应商Mercor确认被TeamPCP黑客组织通过LiteLLM供应链攻击入侵,可能泄露了Meta、OpenAI、Anthropic的专有训练数据。Meta已暂停合作,OpenAI紧急调查。这不是普通的数据泄露——是AI行业的"原料配方"可能流入了暗网。
三件事看似不相关,但串在一起看指向同一个趋势:AI行业正在从"野蛮生长"进入"规则重塑"阶段。 Anthropic在收紧计费规则,DeepSeek在重写开源规则,Mercor事件则在敲响数据安全的警钟。
事件一:Anthropic封杀OpenClaw——$20/月的"无限量"时代结束了
发生了什么
Anthropic在4月3日宣布,从4月4日太平洋时间中午12点(北京时间4月5日凌晨3点)起,Claude的订阅服务(Pro $20/月、Max $100/月)将不再覆盖通过第三方工具(如OpenClaw、Cline等)产生的使用量。
| 变更项 | 旧政策 | 新政策 |
|---|---|---|
| 订阅覆盖范围 | Claude官网+第三方工具 | 仅限Claude官网和官方产品 |
| 第三方工具费用 | 包含在月费内 | 按量付费(PAYG) |
| 生效时间 | — | 2026年4月4日 |
| 受影响工具 | OpenClaw、Cline(Claude模式)等 | 主要为OpenClaw |
Anthropic官方给出的理由是:第三方工具给系统带来了"超乎寻常的压力"(outsized strain),影响了核心用户的体验。
对开发者的实际影响
这件事看起来只是改了个计费规则,但对AI编程工具生态的影响是地震级的。
直接受影响的用户:所有用Claude订阅(而非API)在OpenClaw上工作的开发者。此前,你付$20/月Pro订阅,可以在OpenClaw上无限使用Claude Sonnet。现在,这部分使用量要单独按API价格计算——Claude Sonnet的API价格是$3/MTok输入、$15/MTok输出。一个重度用户每月可能多花$30-80。
Anthropic提供的过渡方案:
| 补偿方案 | 内容 | 截止时间 |
|---|---|---|
| 一次性抵扣金 | 相当于一个月订阅费的额度 | 4月17日前兑换 |
| 预购折扣 | 使用额度包最高30%折扣 | 持续有效 |
| 全额退款 | 不接受新条款可取消订阅并获得全额退款 | 4月17日前申请 |
Anthropic的真实意图
Anthropic不是在"惩罚"第三方工具,而是在重新定义Claude的价值边界。
Claude Code和Claude Cowork是Anthropic的官方产品,订阅收入直接归Anthropic。OpenClaw是第三方工具,Claude的使用量通过OpenClaw的API调用产生——Anthropic从中获得的收入远低于直接订阅。
更重要的是,OpenClaw的使用模式是"挂机式"的——Agent自动执行任务,token消耗量远超人类对话。一个OpenClaw用户一晚上的token消耗,可能相当于100个Claude官网用户一周的用量。这对Anthropic的算力成本来说是巨大的负担。
| 使用场景 | 平均token消耗/会话 | Anthropic收入/会话 |
|---|---|---|
| Claude官网对话 | 5K-20K | $20/月(订阅费) |
| Claude Code(官方) | 50K-500K | $20/月(订阅费) |
| OpenClaw Agent任务 | 200K-2M | $0(使用订阅额度) |
OpenClaw用户用$20/月消耗了Anthropic价值$50-200的算力。这个商业模型不可持续——Anthropic必须改。
对AI编程工具格局的影响
这个政策变更的直接后果是:
- OpenClaw用户成本大幅上升,部分用户可能转向直接用Claude Code(官方产品,订阅仍覆盖)
- Cline用户如果用Claude API密钥(而非订阅),不受影响——API本来就是按量付费
- Anthropic在推动用户从"订阅套利"转向"按使用付费",长期看更公平,短期看用户有阵痛
谁不受影响
- Claude Code用户:官方产品,订阅完全覆盖
- Claude官网用户:完全不受影响
- 使用Claude API密钥(而非订阅)的用户:本来就是按量付费,无变化
- Cursor用户:Cursor有自己的API计费体系,不受此政策影响
事件二:DeepSeek V4灰度测试——开源编程模型要变天了
核心性能数据
DeepSeek V4的灰度测试数据已经在多个渠道曝光。如果这些数据属实,它将成为目前最强的开源编程模型——没有之一。
| 基准测试 | DeepSeek V4 | GPT-5.4 Pro | Claude Opus 4.6 | Qwen3.6-Plus |
|---|---|---|---|---|
| SWE-bench Verified | 83.7% | 86% | 80.8% | 78.8% |
| HumanEval | 87.6% | — | — | — |
| 上下文长度 | 100万token | 128K | 200K | 100万token |
| 编程语言支持 | 338种 | ~100种 | ~80种 | ~200种 |
| 设计图转代码 | 92%准确率 | 无此功能 | 无此功能 | ~60%(估计) |
几个关键信息:
第一,SWE-bench 83.7%,已经超过了Claude Opus 4.6(80.8%),逼近GPT-5.4 Pro(86%)。考虑到V4还是灰度版本、未完全调优,正式版可能更高。开源模型在编程能力上追平闭源,这是第一次。
第二,Engram长期记忆机制是最大的架构创新。传统Transformer的记忆瓶颈在于:上下文窗口越大,推理成本指数级上升。DeepSeek的Engram机制将知识存储与推理解耦,实现近乎O(1)复杂度的知识检索——这意味着百万token上下文不再是"塞进去然后祈祷模型记得住",而是"存起来随时精确调用"。
第三,338种编程语言支持。这个数字几乎是GPT-5.4(约100种)的3.4倍。对于使用小众语言(Rust、Elixir、Haskell等)的开发者来说,DeepSeek V4可能是唯一能"理解"他们代码的模型。
第四,Design2Code功能——给一张UI设计图,直接生成前端代码,准确率92%。我们之前测试Qwen3.6-Plus的多模态编程时,估计准确率约60%。如果DeepSeek V4真的能做到92%,这意味着前端开发者的生产力可能再次跃升。
架构创新:MoE + Engram
| 特性 | DeepSeek V3.2 | DeepSeek V4(灰度) |
|---|---|---|
| 架构 | MoE(混合专家) | MoE + Engram记忆模块 |
| 参数量 | 671B(37B激活) | 万亿级(具体未公布) |
| 上下文 | 128K | 100万token |
| 记忆机制 | 无(标准上下文窗口) | Engram条件记忆 |
| 多模态 | 文本+图像理解 | 文本+图像+视频端到端 |
| 知识更新 | 需要重新训练 | 动态知识库更新 |
Engram是DeepSeek自研的记忆机制,名字来源于神经科学中的"记忆印迹"(Engram)概念。它的核心思想是:不要让模型"记住"所有东西,而是把知识存储在外部模块里,推理时按需检索。
对AI编程工具生态的影响
如果DeepSeek V4正式发布且性能达标,AI编程工具的性价比格局将再次被改写:
| 方案 | 模型 | SWE-bench | 估算月费 | 推荐度 |
|---|---|---|---|---|
| Claude Code Pro | Claude Sonnet 4.6 | 79.6% | ~$40 | ⭐⭐⭐⭐⭐ |
| Cline + DeepSeek V4 | DeepSeek V4 | 83.7% | ~$5-10 | ⭐⭐⭐⭐⭐ |
| Cursor Pro | Claude Opus 4.6 | 80.8% | ~$60 | ⭐⭐⭐⭐ |
| Cline + Qwen3.6-Plus | Qwen3.6-Plus | 78.8% | ~$5 | ⭐⭐⭐⭐ |
Cline + DeepSeek V4可能在SWE-bench上超过Claude Code Pro,而成本只有八分之一。 这将是AI编程工具有史以来最大的性价比颠覆。
不过有一个重要提醒:灰度数据≠正式版数据。DeepSeek V3发布前的爆料数据和最终版差距不大,但V4的架构跨度更大(新增Engram模块),灰度和正式版之间可能有调整。建议等正式发布后再做最终判断。
发布时间线
| 时间 | 事件 |
|---|---|
| 2026年1月 | 小参数版灰度测试启动(部分社区适配) |
| 2026年4月3日 | 多个渠道曝光大参数版灰度数据 |
| 2026年4月上旬(预计) | 正式发布(概率75%) |
| 原计划 | 2026年春节(2月中旬),已跳票 |
DeepSeek创始人梁文锋亲自带队研发。此前V1到V3都是"按计划发布",V4是第一次大幅跳票——说明架构创新确实有技术难度。
事件三:Mercor训练数据泄露——AI行业的"原料配方"流入了暗网
事件链条
这是三件事里最令人不安的一个。
TeamPCP黑客组织
→ 入侵LiteLLM(AI API代理工具)
→ 在两个版本(1.82.7/1.82.8)中植入恶意代码
→ 植入凭证窃取+K8s横向移动后门
→ 影响数千家使用LiteLLM的组织
→ Mercor(AI数据供应商)中招
→ 专有训练数据可能泄露至暗网
LiteLLM是一个AI API代理工具,月下载量9500万次,大量AI公司用它来统一管理不同模型的API调用。攻击者在LiteLLM的两个版本中植入了后门代码——任何使用这两个版本的组织,其系统凭证和环境变量都可能被窃取。
Mercor是谁,为什么它泄露的数据这么重要
Mercor是一家价值100亿美元的AI数据服务公司,核心业务是为大型AI实验室提供定制化的专有训练数据。它的客户包括:
| 客户 | 状态 |
|---|---|
| Meta | 已暂停合作,无限期停工 |
| OpenAI | 紧急调查中,尚未暂停 |
| Anthropic | 未置评 |
| 其他AI实验室 | 重新评估合作关系 |
Mercor做的事情,本质上是"AI模型的饲料加工厂"。大型AI实验室(OpenAI、Meta、Anthropic)雇Mercor雇佣数千名人工承包商,为AI模型生成定制化的训练数据集——如何回答特定领域的问题、如何执行特定任务、如何验证答案的正确性。
这些数据集是AI模型的核心商业机密。 知道一家公司用什么数据、怎么训练的,就等于知道了它的"配方"。如果竞争对手拿到这些数据,可以复现类似的能力,甚至找到针对性攻击的方法。
泄露了什么
冒充Lapsus$的黑客在暗网声称拥有以下数据(真实性未完全确认):
| 数据类型 | 声称大小 |
|---|---|
| 数据库 | 200GB+ |
| 源代码 | 近1TB |
| 视频和其他文件 | 3TB |
如果这些数据确实包含Mercor为AI实验室生成的专有训练数据集,后果将是灾难性的。这相当于可口可乐的配方被公开了——虽然你有了配方,但你的生产线和品牌还是比不过可口可乐。不过,竞争对手可以基于这些数据更快地追赶,甚至找到你的模型在特定任务上的弱点。
为什么这件事和3月29日的LiteLLM事件有关联
3月29日的新闻速报里,我报道过LiteLLM遭TeamPCP供应链攻击的事件。当时的影响范围是"9500万月下载量受影响,3小时暴露窗口"。现在看来,那次攻击的实际影响远比当时报道的严重——Mercor就是那次攻击的最大受害者之一。
| 对比 | 3月29日报道 | 4月4日更新 |
|---|---|---|
| 攻击方式 | LiteLLM供应链攻击 | 同一事件,影响扩大 |
| 受影响范围 | "数千家组织" | 确认包括Mercor($100亿公司) |
| 数据泄露 | 未确认 | 专有AI训练数据可能泄露 |
| 行业影响 | 安全警告级别 | Meta暂停合作,OpenAI紧急调查 |
对普通用户的影响
好消息:泄露的是AI模型训练数据,不是用户个人数据。OpenAI已声明用户对话数据未受影响。
坏消息:如果训练数据真的流入暗网,它可能被用于:
- 模型逆向工程:竞争对手分析训练策略,更快追赶
- 对抗性攻击:基于训练数据的弱点设计针对性的攻击
- 训练数据投毒参考:了解哪些数据被用于训练,设计针对性的"毒药"样本
对AI开发者来说,这件事是一个严重的安全警示:你的AI工具链上的每一个环节——模型、API代理、数据供应商——都可能成为攻击入口。
三件事串在一起看
| 事件 | 改写的规则 | 对用户的影响 |
|---|---|---|
| Anthropic封杀OpenClaw | AI编程工具的计费规则 | 成本上升,但更公平 |
| DeepSeek V4灰度 | 开源模型的性能天花板 | 性价比颠覆,$5挑战$40 |
| Mercor数据泄露 | AI训练数据的安全底线 | 行业信任危机,供应链安全升级 |
三个事件分别从商业、技术、安全三个维度重塑AI行业的规则:
商业维度:Anthropic的"订阅不再覆盖第三方工具"政策,标志着AI公司开始精细化运营——不再做"一个价格无限使用"的赔本买卖。未来其他厂商(包括OpenAI)可能跟进类似策略。
技术维度:DeepSeek V4的Engram记忆机制,如果效果如宣传所言,将从根本上改变大模型的记忆方式。百万token上下文+O(1)检索,意味着Agent可以"真正记住"跨会话的信息,而不是每次都从零开始。
安全维度:Mercor事件暴露了AI行业的供应链脆弱性。LiteLLM一个工具被攻破,就能影响数千家公司、泄露价值数百亿美元的专有数据。AI行业的"安全"不应该只关注模型本身,更要关注整个工具链。
本周AI动态速览
- 小米发布MiMo大模型:推出四档Token订阅套餐,月费39元起,直接对标DeepSeek
- 腾讯云推出"龙虾"Agent Memory服务:提升AI助理的记忆能力,和DeepSeek V4的Engram类似
- 广电行业组织严禁AI换脸:红果短剧AI剧《桃花簪》因"盗脸"侵权被下架
- 阿里发布Wan2.7-Video:视频生成模型,国内视频生成赛道再添玩家
- Anthropic成立政治行动委员会AnthroPAC:AI公司正式介入美国政治
FAQ
Q1:Claude订阅不覆盖OpenClaw后,我的成本会增加多少?
A:取决于你的使用量。轻度用户(每月通过OpenClaw消耗约50万token)额外成本约$10-20/月。重度用户(每月数百万token)可能额外增加$50-100。建议:优先使用Claude Code(官方产品,订阅覆盖),或用DeepSeek API替代(成本更低)。如果用Cline接入DeepSeek V3.2,每月只需$5左右。
Q2:DeepSeek V4什么时候正式发布?值得等吗?
A:预计4月上旬发布(概率75%),但DeepSeek V3也跳票过。如果V4的SWE-bench 83.7%数据属实,它将是目前性价比最高的编程模型——开源免费,性能超过Claude Opus。建议现在开始熟悉Cline的使用(如果还没用的话),等V4发布后直接接入。
Q3:Mercor数据泄露会影响ChatGPT或Claude的安全性吗?
A:不会直接影响。泄露的是训练数据("怎么教模型的"),不是用户对话数据("你和模型说了什么")。你用ChatGPT或Claude的对话记录是安全的。但长期看,如果训练数据被竞争对手获取,他们可以更快地追赶,这可能间接加速AI模型的能力扩散。
Q4:LiteLLM安全事件和Mercor泄露有什么关系?
A:因果关系。TeamPCP黑客组织通过在LiteLLM的两个版本中植入恶意代码(供应链攻击),窃取了使用这些版本的组织的系统凭证。Mercor恰好使用了被植入后门的LiteLLM版本,导致其系统被入侵。这和3月29日我们报道的是同一事件的后续——当时只知LiteLLM被攻击,现在知道了最大的受害者是Mercor。
Q5:AI编程工具现在应该怎么选?
A:结合今天三条新闻,更新推荐方案:追求综合效率选Claude Code Pro($20/月,订阅完全覆盖);追求性价比等DeepSeek V4正式发布后再决定(目前先用Cline+Qwen3.6-Plus,$5/月);使用第三方工具(OpenClaw等)的用户考虑切换到官方API或直接用Claude Code。不推荐:继续用Claude订阅跑OpenClaw(成本即将大幅上升)。
总结
2026年4月4日,三条新闻同时重塑AI行业的三个维度:
- Anthropic封杀OpenClaw:AI编程工具的"免费午餐"结束了。$20/月无限使用Claude的好日子一去不复返。Anthropic在用行动告诉行业:算力是昂贵的,不要指望用订阅费薅羊毛。这对依赖OpenClaw的开发者是坏消息,但推动了行业向更公平的按量付费模式转变。
- DeepSeek V4灰度测试:开源编程模型的天花板可能再次被打破。SWE-bench 83.7%、Engram记忆机制、338种编程语言——如果正式版数据属实,Cline+DeepSeek V4将是以$5/月挑战$40/月Claude Code的最强方案。DeepSeek正在用V4证明:开源不等于廉价,开源也可以是最好的。
- Mercor数据泄露:AI行业的供应链安全警报全面拉响。LiteLLM一个工具被攻破,就能泄露价值数百亿美元的专有训练数据。Meta暂停合作、OpenAI紧急调查——这说明AI公司终于意识到:训练数据的安全和模型的安全同等重要。
对开发者的行动建议:
- 检查你的Claude使用方式,如果是通过OpenClaw,尽快规划迁移
- 关注DeepSeek V4的正式发布,准备在Cline中接入测试
- 审查你的AI工具链——LiteLLM事件证明,每一个第三方依赖都是潜在的攻击面
持续关注AI工具宝箱获取最新AI工具评测和行业动态。