Sora关停、LiteLLM被投毒、Arm造出136核AGI芯片、Claude操控你的电脑:AI圈本周发生了什么

2026年3月29日 · AI动态
Sora关停、LiteLLM被投毒、Arm造出136核AGI芯片、Claude操控你的电脑:AI圈本周发生了什么 - 数据对比信息图
Sora关停、LiteLLM被投毒、Arm造出136核AGI芯片、Claude操控你的电脑:AI圈本周发生了什么 · 核心数据一览

前言

这周AI圈炸了四次。OpenAI亲手砍掉了Sora——那个曾经让全世界为之疯狂的AI视频产品,存活不到半年就下线。就在同一天,LiteLLM被投毒了——9500万月下载量的Python包被植入了窃取凭证的后门,用了CursorClaude Code的开发者可能中招。与此同时,Arm做了35年来从没做过的事——自己造了一颗136核的CPU,Meta买了第一张票。而Anthropic直接把鼠标交给了Claude,让它操作你的电脑干活。

四件事放在一起,指向一个清晰的信号:AI行业正在从"能不能做"进入"该不该做、怎么做才赚钱"的阶段。

事件一:Sora之死——OpenAI史上最大规模产品关停

发生了什么

3月24日(美国时间),OpenAI宣布全面关停Sora——独立App、API接口、ChatGPT内置视频功能,全部下线。从2025年9月独立App上线到关停,Sora只活了6个月。这是OpenAI历史上最大规模的产品关停。

Sam Altman在内部会议上说得很直白:"我们不可能同时做所有事情。"

为什么关停——数字说明一切

指标数据
存活时间6个月(2025年9月上线→2026年3月关停)
应用内购总收入$210万
日均运营成本约$1500万
半年总烧钱估算约$2.7亿
2025年12月下载量环比-32%
2026年1月安装量环比-45%
首日峰值(Android上线)登顶Google Play榜首,24h生成100万+视频

$210万的收入对$2.7亿的成本,这个比例用"入不敷出"来描述都太客气了。更扎心的是,Sora在发布当天确实引爆了下载——Android版上线首日登顶Google Play,24小时内用户生成了超过100万条视频。但峰值之后就是自由落体:12月下载量跌了32%,1月安装量再跌45%。

关停背后的深层原因

不只是Sora不赚钱。OpenAI正面临更严峻的局面:

关停Sora不是某个产品的失败,是OpenAI从"什么都做"转向"只做能赚钱的"战略转折点。

Sora死了,AI视频没死

Sora关停不意味着AI视频赛道凉了。相反,这个赛道已经进入"战国时代":

Sora退出后,AI视频赛道的重心从"谁能生成最好看的视频"转向"谁能把视频生成嵌入实际工作流"。字节把Seedance塞进剪映、Google把Veo整合进Gemini——平台化嵌入才是AI视频的正确出路。独立App的模式已经走不通了。

对用户的影响

事件二:LiteLLM被投毒——9500万月下载量的包差点成了后门

发生了什么

3月24日,安全研究者发现LiteLLM的两个恶意版本(1.82.7和1.82.8)被发布到PyPI。这个包月下载量超过9500万次,被Stripe、Netflix、Google ADK等大公司使用。攻击者TeamPCP通过入侵LiteLLM的CI/CD流水线,窃取了PyPI发布令牌,直接发布了带后门的版本。

暴露窗口约3小时(3月24日10:39-13:30 UTC),之后PyPI隔离了整个litellm项目。

攻击链怎么运作的

这个攻击设计得相当精巧,分三步走:

第一步:入侵Trivy(3月19日)

TeamPCP利用GitHub Actions的pull_request_target漏洞,入侵了Aqua Security的Trivy安全扫描器。Trivy是很多开源项目CI/CD里用的安全扫描工具——讽刺的是,安全工具本身被黑了。

第二步:窃取PyPI发布令牌(3月24日)

恶意Trivy Action在LiteLLM的CI/CD流水线中执行,截获了PyPI发布令牌。攻击者用这个令牌直接向PyPI发布恶意版本,完全绕过了GitHub源码审查——因为恶意代码根本不在GitHub的代码里,是发布时才注入的。

第三步:植入后门(1.82.7和1.82.8)

版本注入方式触发条件
1.82.7嵌入proxy_server.pyimport litellm时触发
1.82.8新增litellm_init.pth任何Python进程启动时自动执行

1.82.8尤其阴毒——利用Python的site.py机制,不需要你import任何东西,只要你的环境里装了这个版本,启动Python就会执行恶意代码。

后门干了什么

分三个阶段,一个比一个狠:

阶段一:凭证窃取 扫描50+类敏感数据,包括SSH密钥、AWS/GCP/Azure云凭据、Kubernetes Secret、数据库密码、CI/CD令牌、加密货币钱包。如果检测到AWS环境,还通过SigV4签名直接查询Secrets Manager和SSM Parameter Store——不是猜密码,是直接用IMDSv2获取临时合法凭证。

阶段二:加密外泄 用AES-256-CBC加密数据,RSA-4096包装会话密钥,通过HTTPS POST发送到C2域名models.litellm[.]cloud——伪装成LiteLLM官方的模型API域名,很难从流量里区分。

阶段三:Kubernetes横向移动 如果在K8s环境,会在所有节点部署特权Pod,挂载宿主机根文件系统,安装systemd持久化后门。每50分钟向另一个C2拉取新负载。

谁受影响

任何在3月24日10:39-13:30 UTC期间安装或更新了LiteLLM的环境。

LiteLLM是AI应用开发中最常用的模型路由库之一——Cursor和Claude Code的很多配置教程都推荐用LiteLLM做多模型路由。如果你用AI编程工具的过程中配过LiteLLM,赶紧检查版本。

怎么排查和修复

# 1. 检查版本

pip show litellm | grep Version # 如果显示1.82.7或1.82.8,立刻处理

# 2. 查找恶意的.pth文件 find "$(python3 -c 'import site; print(site.getsitepackages()[0])')" -name "litellm_init.pth"

# 3. 检查持久化后门 ls -la ~/.config/sysmon/sysmon.py

# 4. K8s环境检查 kubectl get pods -n kube-system | grep node-setup

修复步骤:卸载LiteLLM → 删除.pth文件 → 清理后门组件 → 轮转所有凭据(SSH密钥、API Key、数据库密码全部换一遍)。

这件事的教训

LiteLLM事件暴露了AI开发生态的一个系统性问题——我们对底层依赖的信任没有边界。LiteLLM连接着你的各种LLM API Key(OpenAI、Anthropic、Google),一旦被投毒,这些Key全部暴露。而9500万的月下载量意味着这个攻击面极大。

对个人开发者来说,最实际的教训是:不要盲目pip install -U。特别是在CI/CD流水线里,固定依赖版本比追最新版重要得多。

事件三:Arm造出了自己的芯片——136核,Meta买单

发生了什么

3月24日,Arm发布了Arm AGI CPU——这是这家公司35年历史上的第一款自研芯片。之前35年,Arm只做芯片设计授权,不做芯片本身。这次直接造了一颗136核的数据中心CPU,Meta是第一个公开客户。

为什么重要

Arm是全球芯片架构的霸主——全球99%的智能手机用的都是Arm架构。但Arm自己不做芯片,只卖IP授权(就像英伟达自己造显卡但不卖设计给别人一样)。Arm自己下场造芯片,相当于英伟达突然宣布要自己设计x86处理器——整个行业的格局都要抖三抖。

规格数据

指标数据
核心数136核(基于Neoverse V3)
单机架性能最新x86系统的2倍以上
风冷机架功耗36kW(30台刀片,8160核/机架)
液冷方案200kW(超45000核/机架)
首发客户Meta(吉瓦级基础设施部署)
合作伙伴50+家(Cerebras、Cloudflare、OpenAI、SK电讯等)
上市状态已开放订购

为什么Meta选Arm不选x86

Meta的AI基础设施需要处理海量的AI推理调度任务。传统的x86服务器(Intel/AMD)在AI推理场景下的能效比不够好——推理任务对内存带宽和并发线程的需求远超单线程性能。Arm AGI CPU 136核的设计正好契合这个需求:更多核心、更高内存带宽、更低的每瓦成本。

Meta计划将AGI CPU与自研MTIA加速器协同工作——AGI CPU负责推理调度和任务编排,MTIA负责密集计算。分工明确,效率更高。

对行业的影响

事件四:Claude能操作你的电脑了

发生了什么

3月23日,Anthropic推出Claude Computer Use功能——Claude现在可以直接打开你的应用、操作浏览器、运行开发工具来完成任务。同时推出的还有Dispatch功能,让你从手机给电脑上的Claude派任务。

目前只支持macOS,作为研究预览版发布。

能干什么

Claude Computer Use不是模拟点击,是真的像人一样操作你的电脑:

配合Dispatch功能,你可以从手机上给Claude派任务——"帮我把那个PDF转成PPT,做好后发到我邮箱"——Claude会在你的Mac上完成这个任务。

安全性

Anthropic在Claude Code Auto Mode上已经证明了他们重视安全(用分类器自动判断操作安全性)。Computer Use也采用了类似思路,但目前仍标注为"研究预览",说明Anthropic自己也在摸索边界。

对AI编程工具的影响

Computer Use让Claude从"编码助手"进化成"通用电脑操作员"。这意味着它不仅能帮你写代码,还能帮你部署代码(打开终端跑git push)、检查线上状态(打开浏览器看监控面板)、处理非编码任务(回邮件、整理文件)。

Cursor和Claude Code这样的专用编程工具来说,Computer Use既是补充也是竞争——当Claude能操作整个电脑时,还需要一个专门的编辑器插件吗?

四件事串在一起看

事件信号
Sora关停AI行业从"卷功能"转向"卷商业化",做不做得出功能不是问题,能不能赚钱才是
LiteLLM被投毒AI开发生态的安全隐患正在被武器化,基础设施的信任边界需要重新定义
Arm AGI CPUAI推理的硬件基础在加速变革,x86时代可能走向终结
Claude Computer UseAI工具从"被动响应"走向"主动操作",人机交互范式在变

四个信号指向同一个趋势:AI正在从"玩具"变成"基础设施",而这个过程中,安全、成本和商业化是三个绕不过去的坎。

Sora告诉我们,就算你做了全世界最酷的东西,不赚钱也得死。LiteLLM告诉我们,你的AI工具链里任何一环被攻破,后果不堪设想。Arm AGI CPU告诉我们,支撑AI的基础设施正在发生结构性变化。Claude Computer Use告诉我们,AI和人类的协作方式正在被重新定义。

对普通AI用户和开发者的建议:

本周其他值得关注的消息

FAQ

Q1:Sora关停后,我的视频怎么办? A:OpenAI提供了作品保全时间窗口,请在关停前下载所有已生成的视频。替代方案推荐:剪映(集成Seedance 2.0,国内直接用)、Runway Gen-4(专业级视频生成)、Pika 2.0(操作简单,适合短视频)。

Q2:我装了LiteLLM,怎么确认有没有中招? A:运行pip show litellm查看版本。如果是1.82.7或1.82.8,说明可能受影响。即使安装了其他版本,也建议执行排查命令(本文第二部分有详细步骤),特别是检查litellm_init.pth文件和~/.config/sysmon/目录是否存在。

Q3:Claude Computer Use和之前微软的Windows Copilot有什么区别? A:区别很大。Windows Copilot主要是对话式助手,回答问题、提供建议,但不直接操作。Claude Computer Use是真的接管鼠标和键盘,像人一样打开应用、点击按钮、输入文字。它能自主完成一系列操作,而不是告诉你"你应该怎么做"。

Q4:Arm AGI CPU什么时候能买到? A:已开放订购,永擎电子、联想、Supermicro提供商用系统。但对个人开发者来说,更实际的影响是:如果你用的是AWS或Azure的云服务器,未来可能会用到基于Arm AGI CPU的实例,推理性能更强、成本更低。

Q5:OpenAI关停Sora,是不是说明AI视频不行了? A:恰恰相反。AI视频赛道热度不减,只是商业模式在进化。Sora的失败在于它选择了"独立App"这条路——单独做一个视频生成App,用户付费意愿低、运营成本高。而字节把Seedance集成在剪映里、Google把Veo整合在Gemini中,走的是"平台嵌入"路线,用户在使用现有工具的过程中顺便用AI生成视频,付费意愿高得多。AI视频不是不行了,是模式选错了。

总结

2026年3月最后一周的AI圈,可以用四个关键词概括:关停、被黑、造芯、接管。

Sora从封神到退场只用了25个月,给所有AI创业公司上了一课:技术领先不等于商业成功。LiteLLM的9500万月下载量被投毒,暴露了AI生态最脆弱的一环——我们对基础设施的信任需要重新审视。Arm自研136核CPU,Meta直接买单,数据中心芯片的格局正在被改写。Claude接管你的电脑操作,AI工具的自主性再次向前迈了一大步。

这四件事放在一起看,2026年的AI行业已经过了"看demo激动"的阶段,进入了真刀真枪拼商业化的时期。技术还在进步,但决定胜负的不再只是技术,而是安全、成本和落地能力。

关注AI工具宝箱获取最新AI工具评测和行业动态,每周更新。