DeepSeek 还在搞事。

作为官方钦定的「开源周」,DeepSeek 本周已经陆续开源四个项目,星期四最新发布了实现计算与通信双向并行的 DualPipe(直译为「双向管道」)。与此同时,DeepSeek 还整了一个不大不小的活——错峰定价。

周三(2 月 26 日),DeepSeek 发文宣布当天起,北京时间每日 00:30 至 08:30 的夜间空闲时段,DeepSeek 开放平台推出错峰优惠活动。而就在前一天,DeepSeek 才刚刚恢复官方的 API 充值服务。

但说回优惠,DeepSeek 不可谓不给力。根据官方公告,DeepSeek API 调用价格将在夜间空闲时段大幅下调:DeepSeek-V3 降至原价的 50%;DeepSeek-R1 更是低至 25%(降了 75%)。



图/ DeepSeek

具体价格调整如图,就不赘述了,总之就是帮兄弟们「自砍一刀」。

值得一提的是,不同于 DeepSeek-V3 发布之初的「优惠体验期」有明确的时间期限,这次的错峰优惠仅有「时段限制」,而没有「期限」。换言之,我们可以干脆一点将错峰优惠视为长期的:

「错峰定价」。

另外还有一点不得不提,两款模型不仅优惠时段一致,优惠后的价格也变得完全一样了:

输入(缓存命中)为 0.25 元 / 百万 tokens;
输入(缓存未命中)为 1 元 / 百万 tokens;
输出为 4 元 / 百万 tokens。

这可能也是 DeepSeek 有意为之。

毕竟推理模型已经成为了大模型厂商的共识,通过在优惠时段拉齐定价,DeepSeek 不仅能够降低开发者使用 DeepSeek-R1 的成本顾虑,事实上也模糊了两种模型的边界,鼓励开发者根据自己的需求灵活调用两种模型。

这就像前两天 Anthropic 推出的全球首款混合推理模型——Claude 3.7 Sonnet,结合了传统模型的「迅速回答」和推理模型的「高级推理」优势,实现更灵活的计算与更适合的 AI 体验。



图/ Claude

不过 DeepSeek 这次调整最核心的变动,还是「错峰定价」这种运营策略的采用,其中「肉眼可见」的优势很有可能引起豆包、通义千问等其他大模型的跟进,甚至可能成为又一场大模型价格战的导火索:

一如 2024 年初 DeepSeek-V2 发布后,掀起的那场价格战。

DeepSeek-R1 杀价!比豆包们便宜吗?

需要说明的是,DeepSeek-V3 实际上「降过价」,雷科技之前报道过 DeepSeek-V3「优惠体验期」在本月初的结束,那之前全时段的优惠价甚至比现在优惠时段的价格更便宜:

输入(缓存命中)为 0.1 元 / 百万 tokens;
输入(缓存未命中)为 1 元 / 百万 tokens;
输出为 2 元 / 百万 tokens。



2 月初结束了,图/ DeepSeek

但不同的是,DeepSeek-R1 可没有,发布以来的价格一直没变,都是输入(缓存命中)1 元 / 百万 tokens、输入(缓存未命中)4 元 / 百万 tokens、输出 16 元 / 百万 tokens。

而相对地,这也让这次 DeepSeek-R1 高达 75 折的「错峰降价」更为惊喜。

首先在能力上,我相信今时今日已经不需要强调 DeepSeek-R1 的表现了,不管是产品层面思维链的创新,还是工程层面实现的极致成本,都让 DeepSeek-R1 成为了当下最成功的模型。

在此基础上,降价毫无疑问是降低开发者调用成本和门槛最有力的策略之一,间接也会进一步将更好的 AI 体验推广到更多的 AI 应用(通过接入 DeepSeek)中。

事实上,标准时段 DeepSeek 的价格已经比其他厂商的不少大模型都更便宜,而优惠时段的 DeepSeek,更是比起很多主力大模型都要便宜:



单位为每百万 tokens,图/雷科技

以字节跳动旗下的豆包通用模型为例,火山引擎平台显示的价格是:doubao-pro-32k,输入为 0.8 元 / 百万 tokens,输出为 2 元 / 百万 tokens;doubao-pro-128k / doubao-pro-256k,输入为 5 元 / 百万 tokens;输出为 9 元 / 百万 tokens。

甚至我们还能看到,火山引擎上 deepseek-r1-distill-qwen-32b(蒸馏版)的价格是:输入 1.5 元 / 百万 tokens、输出 6 元 / 百万 tokens。



也就说,DeepSeek-R1 官方满血版在优惠时段的价格,甚至比 32b 蒸馏版还要更便宜。

这也还只是在国内,DeepSeek-R1/V3 在海外也推出了同样的运营策略,也有 50% 和 75% 的大幅降价,而且优惠时段是直接对应北京时间 00:30 至 08:30。也就是说,伦敦时间 16:30 至 00:30、纽约时间 11:30 至 19:30 都可以直接享受到 DeepSeek 官方的优惠时段价格。

换言之,DeepSeek 对于不少面向部分海外用户市场的开发者,还有更强的吸引力,相当于是在高峰时段享受了优惠时段的价格。

错峰优惠很动人,豆包们将如何迎战?

错峰定价本身并不稀奇,比如我们最熟悉的错峰电价,在不同时段用电的价格也会有不小的价格差。

为了尽可能避免在用电高峰时段用电紧张、用电低谷时电能空置,国内就设置了峰谷电价,通过峰谷价差来鼓励用户错峰用电,最大程度配置电网资源的同时帮助用户节省用电成本,挖掘更多的经济效益和生态效益。

事实上,DeepSeek 官方在新闻稿中也提到了类似的说法,表示推出错峰优惠活动是:「鼓励用户充分利用这一时段,享受更经济更流畅的服务体验。」



从开发者的角度来看,这种错峰定价的运营策略几乎算得上百利而无一害,而从大模型厂商和云计算平台的角度看,实际上也是利大于弊,可以更大程度利用服务器资源。

所以目前来看,大模型跟进错峰定价的运营策略应该算得上是题中应有之义,只是具体策略上会有不同的调整,比如前文提到的不同时区(不同用户市场)问题。

不过,DeepSeek 这次会引发行业连锁反应,甚至复刻一年前的大模型价格战吗?可能还有待观察。

不少关注 AI 的读者可能还记得,2024 年 5 月初,大众眼中「名不见经传」的 DeepSeek 发布了第二代 MoE 大模型 DeepSeek-V2,并且首次引入了多头潜在注意力(MLA)机制,拥有 2360 亿参数,每个 token210 亿个活跃参数,称得上当时最强的开源 MoE 模型。



DeepSeek V2 技术论文摘要,图/雷科技

但更重要的是,DeepSeek-V2 的价格达到了:输入 1 元 / 百万 tokens、输出 2 元 / 百万 tokens。

现在看起来可能不太惊艳,但这个价格,仅为当时 ChatGPT 主力模型 GPT-4 Turbo 的近百分之一,在性价比上直接秒杀了国内外一众大模型,也让不少人记住了这家名为「DeepSeek(深度求索)」的大模型厂商,并冠以「AI 界拼多多」的称号。

而更让人印象深刻的是,DeepSeek-V2 之后,中国大模型价格战由此一触即发,字节、腾讯、百度、阿里等大厂纷纷降价,通义千问对标 GPT-4 的主力模型 Qwen-Long,API 输入价格甚至从从 20 元 / 百万 tokens 降至 0.5 元 / 百万 tokens。

「错峰定价」的运营策略或许很难单独推动,但考虑到 DeepSeek 在开源周展现出一系列能力,比如长上下文的突破、芯片利用效率的提升等,未必不会是又一轮大模型价格战的「新开端」。

写在最后

DeepSeek 毫无疑问是今年以来 AI 行业最大的鲶鱼,业界领头羊 OpenAI 也被迫做出了诸多回应。根据多家媒体爆料,OpenAI 近期就计划推出「酝酿已久」的 GPT-4.5。

当然,其他大模型厂商的追赶甚至超越,也在倒逼 DeepSeek 自己加快节奏。路透社最新报道就指出,新一代 R2 推理模型真的要来了,DeepSeek 原计划要在 5 月推出,但最近已经在考虑提前推出。

这些变化都在推动 AI 的迭代和进步,也在改变今日的世界。



ad1 webp
ad2 webp
ad1 webp
ad2 webp