🔬 DD33: AI定价经济学:Token价格一年降99%的底层逻辑
🔬 AI深度解析 DD33 — AI定价经济学:Token价格一年降99%的底层逻辑
预计时长:约25分钟
🎤 开场
大家好,我是小敏,欢迎收听AI深度解析。
今天要聊一个让整个行业都感到震撼的现象——AI API的价格,在过去一年多里暴跌了超过99%。这不是夸张,是真实数据。
2023年3月GPT-4刚发布的时候,输入Token的价格是每百万Token 30美金,输出是60美金。到了2025年底,性能相当甚至更好的模型,价格已经降到了每百万Token不到1美金。某些模型甚至降到了几毛钱。
这个降价速度比摩尔定律还猛。今天我就来深挖一下,这背后到底是什么力量在驱动,以及这种趋势对整个AI生态意味着什么。
📉 价格暴跌的时间线
先来回顾一下这波降价的时间线,大家感受一下这个速度。
2023年3月,GPT-4发布:输入30美金/百万Token,输出60美金。这个价格在当时大家觉得已经很贵了,但没办法,它是最好的模型。
2023年11月,GPT-4 Turbo发布:价格直接砍到输入10美金,输出30美金。降了大概60%。
2024年5月,GPT-4o发布:输入5美金,输出15美金。又砍了一半。
2024年底,各家新模型涌现:Claude 3.5 Sonnet输入3美金,Gemini 1.5 Pro更便宜。
2025年1月,DeepSeek-R1横空出世:API价格直接打到输入约0.5美金/百万Token的水平。这一下子把整个市场的价格预期都拉下来了。
2025年下半年到2026年初:主流模型的API价格基本都在1美金以下。跟两年前比,降了99%。
两年,99%。人类商业史上你很难找到第二个这么夸张的降价曲线。哪怕是存储、带宽、算力这些传统IT资源,降到99%也得花十年甚至更久。
🔧 驱动力一:技术效率的疯狂提升
那价格为什么能降这么快?第一个驱动力,也是最根本的,是技术效率的提升。
首先是混合专家模型,也就是MoE架构。传统的密集模型,比如原版GPT-4据传有1.8万亿参数,每次推理都要跑全部参数。但MoE架构只激活一小部分专家网络,推理计算量可以降低到原来的几分之一,而性能不降甚至更好。DeepSeek的成功很大程度上就是MoE架构用得好。
然后是量化技术。把模型参数从FP32压缩到FP16、INT8、甚至INT4,计算量和显存占用大幅降低。现在很多模型在INT4量化下性能损失不到2%,但推理成本降了好几倍。
再就是推理优化。Flash Attention让注意力计算速度提升了2到4倍。投机解码(Speculative Decoding)用小模型预测大模型的输出,加速生成过程。KV Cache优化减少了重复计算。还有各种编译器级别的优化,比如TensorRT、vLLM这些推理框架。
这些技术叠加起来,同样性能的模型,推理成本可能只有两年前的二十分之一甚至更低。
⚔️ 驱动力二:竞争——DeepSeek效应
第二个驱动力是竞争,尤其是DeepSeek带来的”鲶鱼效应”。
2025年1月之前,API定价基本是OpenAI说了算。它降一点,别人跟一点,节奏是OpenAI控制的。
但DeepSeek-R1出来之后,游戏规则变了。DeepSeek用远低于OpenAI的训练成本,做出了性能非常接近GPT-4级别的模型,而且API价格直接打到地板上。
这迫使所有其他公司快速跟进降价。你不降?开发者直接转向DeepSeek了。特别是在中国市场,百度、阿里、字节、讯飞纷纷打起了价格战,有的甚至推出了免费额度来抢用户。
在美国市场,Google为了推广Gemini也采取了激进的定价策略。Anthropic虽然定价相对克制,但也不得不持续优化价格性能比。
竞争的本质是:当多家公司都能提供相似质量的模型时,价格就变成了关键竞争维度。这跟云计算早期的价格战非常类似——AWS、Azure、GCP轮番降价,最终把云计算变成了薄利甚至微利的生意。
💻 驱动力三:硬件更新换代
第三个驱动力是AI芯片的快速迭代。
NVIDIA的GPU一直是AI推理的主力。从A100到H100到H200再到Blackwell架构的B100/B200,每一代在AI推理上的性能提升都在2到3倍。而且NVIDIA一直在优化针对Transformer架构的专用计算能力。
更重要的是专用推理芯片的崛起。Google的TPU已经迭代到第六代,专门为Transformer优化。AWS的Trainium和Inferentia芯片、Microsoft在开发的Maia AI芯片,都在推理成本方面有很好的表现。
当底层硬件每18个月性能翻倍的时候,上层的API价格自然也要往下走。这本质上是半导体行业摩尔定律红利在AI领域的体现。
🏪 对创业公司的影响:门槛大降
API价格暴跌对AI创业公司来说是巨大的利好。
两年前,一个创业公司如果要用GPT-4的API做产品,光推理成本就可能让你烧不起。一个月几万美金的API费用对小团队来说是巨大的压力。
现在呢?同样质量的模型,成本降到了之前的1%。一个小团队每月的API花费可能只需要几百美金。这意味着什么?
第一,更多的创新可能性。以前因为成本太高而不可行的产品,现在都可以尝试了。给每个用户配一个个性化的AI助理,之前成本不可行,现在完全可以。
第二,创业公司可以更多地把预算花在产品和用户体验上,而不是为了付API费用去融资。
第三,AI应用的市场规模被大幅拓宽。以前只有高客单价的企业场景才用得起AI,现在消费级应用也能承受这个成本了。
这就像云计算价格下降催生了SaaS浪潮一样,AI API价格的下降正在催生一波新的AI原生应用浪潮。
📊 对大公司的影响:利润率承压
但对于提供API的大公司来说,这就没那么愉快了。
OpenAI、Anthropic、Google这些模型提供商面临的核心挑战是:你投入巨资训练出来的模型,还没赚回成本,价格就已经被竞争打到了地板上。
GPT-4的训练成本据传超过1亿美金。如果API价格在一年内降了99%,你需要的调用量就得增长100倍才能维持同样的收入。调用量确实在增长,但增速未必跟得上降价幅度。
这就产生了一个”剪刀差”——成本在下降,但价格下降得更快。利润率被持续压缩。
更麻烦的是,这还导致了”军备竞赛”的恶性循环:你必须不断训练更好的模型来保持竞争力,但每次训练的投入都在增加(从千万级到亿级甚至十亿级),而每次新模型的定价红利期越来越短——因为竞争对手跟进的速度越来越快。
🌊 商品化陷阱:AI会变成”水电煤”吗?
这就引出了一个核心问题——AI模型会不会变成大宗商品?
所谓商品化,就是说不同厂商的产品质量差不多,客户只看价格。就像你买电,不会在乎是哪个发电厂发的,只看每度电多少钱。
现在的趋势确实有这个方向。GPT-4o、Claude 3.5 Sonnet、Gemini 1.5 Pro、DeepSeek-V3,在大部分常规任务上性能差距已经不大了。开发者选择的时候,价格和延迟往往比”哪个模型更聪明”更重要。
如果AI真的变成了商品,那就意味着:训练模型的投入产出比会越来越低,模型公司的利润率会趋近于零,真正赚钱的会是上层应用和平台。
这跟互联网带宽的故事很像。90年代带宽很贵,ISP赚得盆满钵满。后来带宽变得便宜了,ISP利润率持续下降,反而是Google、Facebook、Netflix这些用带宽的公司成了巨头。
所以有一种观点是:AI模型层注定是微利甚至亏损的,真正的价值在应用层。
🔮 价格还会继续降吗?
那价格还会继续降吗?我觉得大概率会,但降速会放缓。
为什么会继续降?因为硬件还在迭代、竞争还在加剧、技术优化还有空间。MoE架构、推理芯片、编译器优化,每一项都还有提升的余地。
为什么会放缓?因为有些成本是硬成本——电费、数据中心、带宽。这些不可能降到零。而且模型训练的成本可能会因为数据需求、安全合规等因素持续上升。
我的判断是:到2027年左右,主流API的价格可能会稳定在一个较低的水平——大概是每百万Token几毛钱的量级。之后主要竞争就不是价格了,而是差异化能力:更快的速度、更好的专业领域表现、更完善的工具生态。
🏆 谁是最大赢家?
最后的问题:在这波降价潮中,谁是最大赢家?
不是模型公司,而是用AI的公司。
就像电价便宜了,最受益的不是发电厂,而是用电大户。AI API价格暴跌,最受益的是那些大量使用AI的应用开发者、企业和最终用户。
所以如果你是一个开发者或者创业者,现在其实是最好的时代——你能用极低的成本调用世界顶级的AI能力。关键问题不再是”用不用得起AI”,而是”你能用AI做出什么有价值的东西”。
👋 结尾
好的,今天我们深入分析了AI API价格暴跌99%背后的三大驱动力——技术效率提升、激烈竞争、硬件迭代——以及这个趋势对创业公司、大公司和整个行业的深远影响。
核心观点就是:AI模型正在走向商品化,真正的价值正在从模型层转移到应用层。谁能用好这些便宜的AI能力,谁就是下一个阶段的赢家。
我们下期再见!
AI深度解析播客 DD33 · 发布日期:2026年4月15日