🔬 AI深度解析 DD10 — Anthropic的”安全优先”:真信仰还是好生意

预计时长:约25分钟


🎤 开场

大家好,我是小敏,欢迎回到AI深度解析。

上一期我们聊了OpenAI,今天要聊的是它最有意思的对手——Anthropic。

为什么说”最有意思”?因为Anthropic是从OpenAI内部分裂出来的。就像漫威电影里的反派往往是英雄的”镜像版”,Anthropic就是OpenAI的镜像。它的创始团队离开OpenAI的原因就是觉得OpenAI”不够重视安全”。

但这里有个灵魂拷问:一家号称”安全优先”的公司,为什么估值也飙到了1750亿美元?为什么它也在疯狂融资、疯狂扩张?

“安全”,到底是信仰,还是一门好生意?今天我们来好好掰扯掰扯。


📖 第一章:出走——一场关于信仰的分裂

2020年底到2021年初,OpenAI内部出现了严重的路线分歧。

以Dario Amodei(时任OpenAI研究VP)和他妹妹Daniela Amodei为首的一批人,对OpenAI越来越激进的商业化路线感到不安。具体来说,他们的担忧是:

  1. GPT-3的商业化节奏太快,安全评估不够充分
  2. OpenAI越来越像一家普通的科技公司,而不是”为全人类”的研究机构
  3. 营利性结构会让安全研究永远排在商业目标之后

2021年1月,Dario带着大约10个人离开了OpenAI,创办了Anthropic。

这个出走本身就很有戏剧性——你想想,一群人因为觉得自己的公司不够重视安全,所以出来另起炉灶。这在硅谷的叙事里是很”高大上”的。

但我们要冷静想一下:出走的timing非常巧。

GPT-3刚刚证明了大模型的商业潜力,整个行业的融资环境极好。Dario不仅带走了核心团队,还带走了关于下一代模型训练的关键知识。如果他纯粹是为了安全理想,为什么不留在OpenAI内部推动改变?

我不是说他的安全关切不真诚,而是说——“信仰”和”时机”可能恰好重合了。


🧠 第二章:Constitutional AI——Anthropic的技术信仰

Anthropic的核心技术理念叫 Constitutional AI(宪法AI)

传统的AI对齐方法是RLHF(基于人类反馈的强化学习)——找一堆人类标注员来告诉AI什么是好的回答、什么是坏的。问题是,人类标注员也有偏见、也会犯错、也不一致。

Anthropic的做法是:给AI一套”宪法”(一组原则),然后让AI自己用这些原则来评判和修正自己的输出。

方法 RLHF(传统) Constitutional AI
核心思路 人类评判AI的输出 AI用原则自我评判
标注成本 高(需要大量人工) 低(AI自动化)
一致性 依赖标注员质量 更高的内在一致性
可扩展性 受限于人工成本 更容易扩展
风险 人类偏见传导 原则设计偏差

说实话,Constitutional AI是一个非常优雅的思路。它不仅更高效,而且理论上更可控——因为原则是明确的、可审计的。

但这里有个悖论:谁来决定”宪法”的内容? Anthropic说它的原则基于联合国人权宣言等文件,但最终还是Anthropic的团队在做选择。一家私人公司在定义AI的”道德宪法”,这本身就值得讨论。


📊 第三章:Claude的崛起——从追赶者到领先者

让我们看看Anthropic的产品——Claude系列模型的演进:

模型 发布时间 关键特点
Claude 1 2023年3月 能用但明显弱于GPT-4
Claude 2 2023年7月 缩小差距,长上下文是亮点
Claude 3 Opus 2024年3月 首次在部分任务上追平GPT-4
Claude 3.5 Sonnet 2024年6月 编程能力出色,性价比极高
Claude 3.5 Haiku 2024年11月 轻量级模型标杆
Claude 4 Sonnet 2025年5月 多项基准测试超越竞品
Claude 4 Opus 2025年中 Agent能力突出

这个进化速度是很惊人的。2023年初Claude 1出来的时候,说实话挺让人失望的——远不如GPT-4。但到了Claude 3.5 Sonnet,风评彻底反转了。

尤其是在编程场景,很多开发者开始觉得Claude比GPT-4更好用。为什么?因为Claude有一种独特的”气质”——它的回答更有结构感、更谨慎、更诚实。当它不确定的时候会明确说”我不确定”,而不是像某些模型那样自信地胡说八道。

我个人在日常工作中两个都用,但代码相关的问题我确实更倾向于用Claude。这种”气质差异”可能正是Constitutional AI带来的。


💰 第四章:收入爆炸——”安全”的商业价值

这是最有意思的部分。看看Anthropic的收入增长:

  • 2024年初年化收入:约9亿美元
  • 2024年底年化收入:约22亿美元
  • 2025年中年化收入:约30亿美元(有报道称已超过这个数字)

融资方面更是惊人:

轮次 时间 金额 主要投资者
B轮 2023年5月 4.5亿 Spark Capital
C轮 2023年9月 40亿 Amazon
D轮 2024年3月 27.5亿 Google
E轮 2025年1月 20亿 Google领投
F轮 2025年3月 35亿 多家
最新估值 2025年中 - 约1750亿美元

注意到了吗?Amazon和Google都重仓了Anthropic。这两家是OpenAI的竞争对手(OpenAI主要用Azure),所以投资Anthropic既是在投AI,也是在对冲。

但这里有一个深层的问题:当你拿了这么多钱,你还能真正把安全放在第一位吗?

投资人投了上百亿美元,他们要的是回报。如果有一天”安全”和”增长”产生了不可调和的冲突——比如安全评估会延迟产品发布3个月——Anthropic会怎么选?


🏛️ 第五章:政府关系——最有政治影响力的AI公司

Anthropic在华盛顿的影响力可能超过了所有其他AI公司。

2025年1月被曝光的一个事件很说明问题:Anthropic向美国政府官员进行了一次代号为”Mythos”的闭门简报,警告如果AI安全不被重视,可能在未来几年引发系统性风险。

Dario Amodei本人也是各种政策听证会的常客。他的姿态一直是:”我们是负责任的AI公司,我们愿意接受监管,但监管要合理。”

这个策略非常聪明:

  1. 先发制人:通过主动拥抱监管,Anthropic可以影响监管框架的设计方向
  2. 差异化竞争:在客户(尤其是企业和政府客户)面前,”我们更安全”是一个极好的卖点
  3. 护城河建设:如果监管要求AI公司满足高标准的安全认证,而Anthropic已经在做了,那竞争对手就要花时间追赶

你看,“安全”不仅是信仰,它确实也是一种极其有效的商业策略。 这不是互相矛盾的——真正高明的商业策略就是那种”做正确的事情恰好也是最赚钱的事情”。


⚔️ 第六章:与OpenAI的对决

Anthropic和OpenAI的竞争本质上是两种理念的竞争:

维度 OpenAI Anthropic
核心叙事 “我们造最强的AI” “我们造最安全的AI”
产品策略 多模态、大而全 聚焦文本,深耕质量
分发渠道 消费级C端 + 企业B端 企业B端为主
开放程度 越来越封闭 从不开源,但发研究论文
融资规模 更大 很大但相对少
团队文化 “move fast” “move carefully”

有意思的是,Anthropic虽然不做C端的大规模推广,但Claude在专业用户中的口碑非常好。很多开发者、研究者、作家都把Claude当成日常工具。这是一种”自下而上”的增长。

不过我也要公平地说一句:Anthropic在多模态方面确实落后于OpenAI和Google。Claude的图像理解能力不错,但视频生成、语音对话这些方面基本是空白。在AI越来越多模态的大趋势下,这可能是一个隐患。


🤔 第七章:灵魂之问——”安全优先”的真相

好了,回到我们开头的问题:”安全优先”到底是真信仰还是好生意?

我的观点是:两者兼有,而且并不矛盾。

Dario Amodei的安全关切大概率是真诚的——毕竟他为此离开了OpenAI这样一个前途无量的平台。但他同时也是一个极其敏锐的商业战略家,他看到了”安全”作为差异化定位的巨大价值。

这就像一个环保主义者开了一家有机食品公司——他既真的关心环境,也知道消费者愿意为”有机”标签支付溢价。信仰和商业利益的结合,恰恰是最可持续的模式。

但风险在于:当这两者产生冲突的时候(它们一定会的),Anthropic能不能坚守”安全优先”?

我觉得2026-2027年会是关键的考验期。随着竞争加剧、盈利压力增大,Anthropic的”安全边界”会不会逐步后退?我们拭目以待。


👋 结尾

好了,今天关于Anthropic的故事就讲到这里。

总结一下:Anthropic可能是目前AI领域最有意思的公司——它用”安全”作为核心叙事,既赢得了道德高地,又赢得了商业成功。Dario Amodei用行动证明了”做正确的事”和”赚钱”并不总是矛盾的。

但故事远未结束。当AGI越来越近,安全问题越来越严峻,Anthropic能不能真正兑现它的承诺?这会是未来几年最值得关注的商业故事之一。

下一期我们来聊聊另一个巨头——Google DeepMind。一个拥有最多AI人才、最多计算资源、最多数据的公司,为什么会被ChatGPT打了一个措手不及?

我是小敏,我们下期见。


AI深度解析播客 DD10 · 发布日期:2026年4月15日