Skip to content
格物致知
返回

ZDR 的真相:当 Anthropic 追踪到「具体员工」时

2026年2月23日,Anthropic 官方 X 账号发出三条推文:

Tweet 1/3 “We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.

These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”

Tweet 2/3 “Distillation can be legitimate: AI labs use it to create smaller, cheaper models for their customers.

But foreign labs that illicitly distill American models can remove safeguards, feeding model capabilities into their own military, intelligence, and surveillance systems.”

Tweet 3/3 “These attacks are growing in intensity and sophistication. Addressing them will require rapid, coordinated action among industry players, policymakers, and the broader AI community.”

三条推文配套发布了一篇长篇报告。数字触目惊心:约 24,000 个虚假账号,超过 1,600 万次对话交换。

但报告原文里有一句话让我停了下来:

“By examining request metadata, we were able to trace these accounts to specific researchers at the lab.” 通过检查请求元数据,我们能够将账号追溯到该实验室的具体研究人员

具体研究人员,问题是:那 ZDR(Zero Data Retention)呢?


ZDR 是什么?

ZDR,全称 Zero Data Retention(零数据留存),是 AI 云服务商面向企业 API 客户的隐私承诺:你的对话数据不会被长期留存,更不会用于模型训练。

这不是 Anthropic 一家的概念,而是整个 AI 行业的标配销售话术:

很多法律团队、医疗机构、金融机构为此支付了溢价,相信这意味着某种真实的隐私护城河。

但 Anthropic 刚刚告诉我们,他们完成了:

这不是实时规则触发,这需要系统性的历史数据留存和关联分析


真相:ZDR,保护的是内容,不是元数据

仔细读任何一家云 AI 的服务条款,你会发现一个从未被高亮显示的细节:

Trust & Safety(信任与安全)监控,不受 ZDR 约束。

数据类型ZDR 是否保护
对话内容(messages)✅ 不用于训练
IP 地址、请求时间戳❌ 可用于安全审计
账号行为模式、元数据❌ 可用于安全审计
支付关联信息❌ 可用于安全审计
跨账号行为图谱❌ 可用于安全审计

这个「安全合规」豁免,范围由平台单方面定义,触发条件由平台单方面判断。

ZDR 卖给你的是「内容不用于训练」,不是「你是匿名的」,不是「你是不可追踪的」。这两件事之间的鸿沟,没有人在签约时告诉你。

这不是隐私保护,这是有选择性的数据披露


作为个人用户,该怎么办?

认清现实后,具体能做什么?

1. 降低身份关联风险

2. 不要对隐私条款有幻觉

3. 高敏感内容走本地模型

4. 理解在使用的是什么

核心建议:把云端 AI 当作「公共图书馆的电脑」使用——能做大量普通工作,但核心机密不放上去,同时清楚这台电脑的管理员是谁、他们的立场是什么。


结语

Zero Data Retention,for whom?Under what conditions?By whose definition of “security”?

在 AI 服务的隐私条款里,「零」从来不是真正的零。它是一个起点,后面跟着无数个「除非」——而「除非」的解释权,永远在平台手里。

Claude 是一个优秀的模型。但 Anthropic 是一家有鲜明政治立场的公司,它的技术能力与它的价值观,是无法分开讨论的。


推文来源:@AnthropicAI(2026-02-23) 报告来源:Detecting and preventing distillation attacks(Anthropic,2026-02-23) 政策来源:Securing America’s compute advantage(Anthropic,2025-04-30)


分享文章:

上一篇
Coding Agent 扩展体系深度对比
下一篇
Coding Agent 全景指南(2026年2月)