🔬 AI深度解析 DD10 — Anthropic的”安全优先”:真信仰还是好生意
预计时长:约25分钟
🎤 开场
大家好,我是小敏,欢迎回到AI深度解析。
上一期我们聊了OpenAI,今天要聊的是它最有意思的对手——Anthropic。
为什么说”最有意思”?因为Anthropic是从OpenAI内部分裂出来的。就像漫威电影里的反派往往是英雄的”镜像版”,Anthropic就是OpenAI的镜像。它的创始团队离开OpenAI的原因就是觉得OpenAI”不够重视安全”。
但这里有个灵魂拷问:一家号称”安全优先”的公司,为什么估值也飙到了1750亿美元?为什么它也在疯狂融资、疯狂扩张?
“安全”,到底是信仰,还是一门好生意?今天我们来好好掰扯掰扯。
📖 第一章:出走——一场关于信仰的分裂
2020年底到2021年初,OpenAI内部出现了严重的路线分歧。
以Dario Amodei(时任OpenAI研究VP)和他妹妹Daniela Amodei为首的一批人,对OpenAI越来越激进的商业化路线感到不安。具体来说,他们的担忧是:
- GPT-3的商业化节奏太快,安全评估不够充分
- OpenAI越来越像一家普通的科技公司,而不是”为全人类”的研究机构
- 营利性结构会让安全研究永远排在商业目标之后
2021年1月,Dario带着大约10个人离开了OpenAI,创办了Anthropic。
这个出走本身就很有戏剧性——你想想,一群人因为觉得自己的公司不够重视安全,所以出来另起炉灶。这在硅谷的叙事里是很”高大上”的。
但我们要冷静想一下:出走的timing非常巧。
GPT-3刚刚证明了大模型的商业潜力,整个行业的融资环境极好。Dario不仅带走了核心团队,还带走了关于下一代模型训练的关键知识。如果他纯粹是为了安全理想,为什么不留在OpenAI内部推动改变?
我不是说他的安全关切不真诚,而是说——“信仰”和”时机”可能恰好重合了。
🧠 第二章:Constitutional AI——Anthropic的技术信仰
Anthropic的核心技术理念叫 Constitutional AI(宪法AI)。
传统的AI对齐方法是RLHF(基于人类反馈的强化学习)——找一堆人类标注员来告诉AI什么是好的回答、什么是坏的。问题是,人类标注员也有偏见、也会犯错、也不一致。
Anthropic的做法是:给AI一套”宪法”(一组原则),然后让AI自己用这些原则来评判和修正自己的输出。
| 方法 | RLHF(传统) | Constitutional AI |
|---|---|---|
| 核心思路 | 人类评判AI的输出 | AI用原则自我评判 |
| 标注成本 | 高(需要大量人工) | 低(AI自动化) |
| 一致性 | 依赖标注员质量 | 更高的内在一致性 |
| 可扩展性 | 受限于人工成本 | 更容易扩展 |
| 风险 | 人类偏见传导 | 原则设计偏差 |
说实话,Constitutional AI是一个非常优雅的思路。它不仅更高效,而且理论上更可控——因为原则是明确的、可审计的。
但这里有个悖论:谁来决定”宪法”的内容? Anthropic说它的原则基于联合国人权宣言等文件,但最终还是Anthropic的团队在做选择。一家私人公司在定义AI的”道德宪法”,这本身就值得讨论。
📊 第三章:Claude的崛起——从追赶者到领先者
让我们看看Anthropic的产品——Claude系列模型的演进:
| 模型 | 发布时间 | 关键特点 |
|---|---|---|
| Claude 1 | 2023年3月 | 能用但明显弱于GPT-4 |
| Claude 2 | 2023年7月 | 缩小差距,长上下文是亮点 |
| Claude 3 Opus | 2024年3月 | 首次在部分任务上追平GPT-4 |
| Claude 3.5 Sonnet | 2024年6月 | 编程能力出色,性价比极高 |
| Claude 3.5 Haiku | 2024年11月 | 轻量级模型标杆 |
| Claude 4 Sonnet | 2025年5月 | 多项基准测试超越竞品 |
| Claude 4 Opus | 2025年中 | Agent能力突出 |
这个进化速度是很惊人的。2023年初Claude 1出来的时候,说实话挺让人失望的——远不如GPT-4。但到了Claude 3.5 Sonnet,风评彻底反转了。
尤其是在编程场景,很多开发者开始觉得Claude比GPT-4更好用。为什么?因为Claude有一种独特的”气质”——它的回答更有结构感、更谨慎、更诚实。当它不确定的时候会明确说”我不确定”,而不是像某些模型那样自信地胡说八道。
我个人在日常工作中两个都用,但代码相关的问题我确实更倾向于用Claude。这种”气质差异”可能正是Constitutional AI带来的。
💰 第四章:收入爆炸——”安全”的商业价值
这是最有意思的部分。看看Anthropic的收入增长:
- 2024年初年化收入:约9亿美元
- 2024年底年化收入:约22亿美元
- 2025年中年化收入:约30亿美元(有报道称已超过这个数字)
融资方面更是惊人:
| 轮次 | 时间 | 金额 | 主要投资者 |
|---|---|---|---|
| B轮 | 2023年5月 | 4.5亿 | Spark Capital |
| C轮 | 2023年9月 | 40亿 | Amazon |
| D轮 | 2024年3月 | 27.5亿 | |
| E轮 | 2025年1月 | 20亿 | Google领投 |
| F轮 | 2025年3月 | 35亿 | 多家 |
| 最新估值 | 2025年中 | - | 约1750亿美元 |
注意到了吗?Amazon和Google都重仓了Anthropic。这两家是OpenAI的竞争对手(OpenAI主要用Azure),所以投资Anthropic既是在投AI,也是在对冲。
但这里有一个深层的问题:当你拿了这么多钱,你还能真正把安全放在第一位吗?
投资人投了上百亿美元,他们要的是回报。如果有一天”安全”和”增长”产生了不可调和的冲突——比如安全评估会延迟产品发布3个月——Anthropic会怎么选?
🏛️ 第五章:政府关系——最有政治影响力的AI公司
Anthropic在华盛顿的影响力可能超过了所有其他AI公司。
2025年1月被曝光的一个事件很说明问题:Anthropic向美国政府官员进行了一次代号为”Mythos”的闭门简报,警告如果AI安全不被重视,可能在未来几年引发系统性风险。
Dario Amodei本人也是各种政策听证会的常客。他的姿态一直是:”我们是负责任的AI公司,我们愿意接受监管,但监管要合理。”
这个策略非常聪明:
- 先发制人:通过主动拥抱监管,Anthropic可以影响监管框架的设计方向
- 差异化竞争:在客户(尤其是企业和政府客户)面前,”我们更安全”是一个极好的卖点
- 护城河建设:如果监管要求AI公司满足高标准的安全认证,而Anthropic已经在做了,那竞争对手就要花时间追赶
你看,“安全”不仅是信仰,它确实也是一种极其有效的商业策略。 这不是互相矛盾的——真正高明的商业策略就是那种”做正确的事情恰好也是最赚钱的事情”。
⚔️ 第六章:与OpenAI的对决
Anthropic和OpenAI的竞争本质上是两种理念的竞争:
| 维度 | OpenAI | Anthropic |
|---|---|---|
| 核心叙事 | “我们造最强的AI” | “我们造最安全的AI” |
| 产品策略 | 多模态、大而全 | 聚焦文本,深耕质量 |
| 分发渠道 | 消费级C端 + 企业B端 | 企业B端为主 |
| 开放程度 | 越来越封闭 | 从不开源,但发研究论文 |
| 融资规模 | 更大 | 很大但相对少 |
| 团队文化 | “move fast” | “move carefully” |
有意思的是,Anthropic虽然不做C端的大规模推广,但Claude在专业用户中的口碑非常好。很多开发者、研究者、作家都把Claude当成日常工具。这是一种”自下而上”的增长。
不过我也要公平地说一句:Anthropic在多模态方面确实落后于OpenAI和Google。Claude的图像理解能力不错,但视频生成、语音对话这些方面基本是空白。在AI越来越多模态的大趋势下,这可能是一个隐患。
🤔 第七章:灵魂之问——”安全优先”的真相
好了,回到我们开头的问题:”安全优先”到底是真信仰还是好生意?
我的观点是:两者兼有,而且并不矛盾。
Dario Amodei的安全关切大概率是真诚的——毕竟他为此离开了OpenAI这样一个前途无量的平台。但他同时也是一个极其敏锐的商业战略家,他看到了”安全”作为差异化定位的巨大价值。
这就像一个环保主义者开了一家有机食品公司——他既真的关心环境,也知道消费者愿意为”有机”标签支付溢价。信仰和商业利益的结合,恰恰是最可持续的模式。
但风险在于:当这两者产生冲突的时候(它们一定会的),Anthropic能不能坚守”安全优先”?
我觉得2026-2027年会是关键的考验期。随着竞争加剧、盈利压力增大,Anthropic的”安全边界”会不会逐步后退?我们拭目以待。
👋 结尾
好了,今天关于Anthropic的故事就讲到这里。
总结一下:Anthropic可能是目前AI领域最有意思的公司——它用”安全”作为核心叙事,既赢得了道德高地,又赢得了商业成功。Dario Amodei用行动证明了”做正确的事”和”赚钱”并不总是矛盾的。
但故事远未结束。当AGI越来越近,安全问题越来越严峻,Anthropic能不能真正兑现它的承诺?这会是未来几年最值得关注的商业故事之一。
下一期我们来聊聊另一个巨头——Google DeepMind。一个拥有最多AI人才、最多计算资源、最多数据的公司,为什么会被ChatGPT打了一个措手不及?
我是小敏,我们下期见。
AI深度解析播客 DD10 · 发布日期:2026年4月15日