图片来源@pixabay

2023年10月,全托管生成式AI服务Amazon Bedrock正式可用时,一家中国媒体曾提出疑问:未来亚马逊云科技会不会接入基于中文语料库的大模型?彼时,问题尚无定论。

2024年5月,亚马逊云科技的另一款早先入华的机器学习平台Amazon SageMaker Jumpstart上线了两款中文大模型:零一万物、百川智能。其后亚马逊云科技又陆续上线了智谱等更多中文模型。

2025年1月30日,就在DeepSeek-R1惊艳众人后的一周,亚马逊云科技迅速宣布了对这款中国大模型的支持,更丰富的产品举措在于:在Amazon Bedrock Marketplace中部署,或在Amazon SageMaker Jumpstart中部署,也可以通过Amazon Bedrock自定义导入功能或Amazon EC2 Trn1实例中部署DeepSeek-R1-Distill系列模型。简单理解就是针对不同体量、不同算力储备的客户都会兼顾。


“很多中国企业在调用海外区域的模型支持其出海业务。从尝试性的角度来看,中国区域客户的需求也是非常高涨的,他们希望通过尝试各种大小的DeepSeek模型实现快速部署。”就在DeepSeek-R1接入亚马逊云科技平台之际,亚马逊云科技大中华区产品技术总监王晓野向钛媒体透露了这场变局中的客户洞察。

目前DeepSeek-R1已经获得中美科技公司包括英伟达、亚马逊、微软、谷歌、阿里、百度等的支持。有的厂商推出了一键部署方案,有的厂商在此基础上还推出了低价方案及免费服务,有的芯片厂商为了适配DeepSeek还在进行大量工程化调优工作。王晓野所在中国区团队春节期间也加班加点,与海外团队协作,很快将DeepSeek上线。

在王晓野看来,这离不开此前与DeepSeek社区从去年开始就已经有之的技术交流与合作,“我们在帮助客户应用DeepSeek模型的工程化实践一直没有间断过。”

监测网站SimilarWeb数据显示,1月31日,尽管与ChatGPT相比有8倍之差,DeepSeek网站在美国的日访问量为240万次,在全球(不包括中国)的访问量为2920万次。而在DeepSeek服务器繁忙和频繁受到网络攻击的背后,是资源稳定性与网络安全性的略有不足。

“按目前亚马逊云科技平台上的客户访问情况看,如果将DeepSeek横向对比来看,有点类似于同样开源的Llama。”王晓野指出。他强调,“开源开放这件事情,其实挺重要的。相对于闭源模型,开源模型会有更为广泛的客户,且增长速度也比较快。”

2月24日,钛媒体获悉,DeepSeek R1和V3模型正式上线由西云数据运营的亚马逊云科技Marketplace(中国区),亚马逊云科技中国区域企业用户可以通过订阅硅基流动推出的SiliconCloud服务以调用模型API的方式直接使用模型,并且无需自己管理模型或算力。


以DeepSeek对整个市场的搅动力度来看,2025年的人工智能竞赛只会更加激烈。

首先是大模型的深度推理能力,继GPT-o1、DeepSeek-R1之后,各家大模型厂商也快速面世了不少推理模型,如阿里通义的QwQ,月之暗面的Kimi-k1,智谱的GLM-Zero,昆仑万维的Skywork-o1,以及最近xAI的Grok3 Reasoning。

其次是训练成本问题,由于R1在达到o1大模型能力的情况下,描述了一个相对成本更低的训练过程,让外界理解到:通过技术优化实现低成本高性能的大模型并非不可能。

此外还有模型开源。闭源和开源并不矛盾,商业公司为了维持商业模式和技术壁垒,会选择闭源,但同时又希望通过开源影响力快速触达客户。但OpenAI和百度的开源“变脸”也映射出:当开源与闭源模型质量相当,且差距不大的情况下,客户并不会为受限制的模型而付费,这件事情放在全球皆是如此。

对于客户会关心的收费问题,目前DeepSeek面向企业客户,主要采取的是本地部署,按百万tokens输入价格进行收费,而借助亚马逊云、阿里云等云厂商开放的模型调用,则因各家云厂商的现阶段计费逻辑不同而略有差异。

钛媒体注意到,亚马逊云科技、微软、谷歌尚未向云客户收取使用DeepSeek的费用。使用DeepSeek的客户只需为使用的云计算资源付费,有按计算资源付费和按算力资源转换过的token计费等多种方式。

而这场抢滩DeepSeek商业化与工程落地背后,依然需要回答的是云厂商如何维护好云计算的护城河。

近日,钛媒体就相关话题独家对话亚马逊云科技,以下是此次对话的要点:

1、R1展现出的推理能力,会推动Agent落地,以及企业流程自动化的热潮;关注点也不应该只是推理,还有多模态。 2、没有一个模型能一统天下。企业客户需要多个模型的可选项这个逻辑依然成立。 3、亚马逊云科技的产品逻辑在于,扎根在泥土里,在大家看不见的地方去持续创新,包括Amazon Trainium2芯片,加大在训练和推理层面研发。 4、客户在亚马逊云科技上部署DeepSeek R1,只需要为使用的云资源付费。 5、目前中国客户对DeepSeek尝试性是比较高的,包括对各种尺寸模型的尝试部署。
真正满血上线大模型的,没几家

钛媒体:内部怎样评价DeepSeek?

王晓野:其实对于国内用户而言,DeepSeek有两层关注点:一个是应用,即手机/网页版的聊天回复功能;二是模型。这也是全球范围内DeepSeek被广泛关注的核心,包括面向文本聊天的通用模型DeepSeek-V3和深度推理模型DeepSeek-R1。

现在,R1相对来说是大家更关注的,同时全球范围内客户对R1模型都有了需求的激增。

总结来讲,主要有几方面原因:一是技术报告写的非常扎实,思维链也比较清晰,R1达到了类似于o1的推理能力,我们也看到了比较好的效果;二是成本,在达到第一梯队大模型能力的情况下,描述了一个相对成本更低的训练过程;三是作为开源模型的影响力;四是客户需求迅速提升。这在都是摸着石头过河探索的当下是令人赞叹的。

钛媒体:亚马逊云科技对于接入哪些中国模型,考量有哪些?为什么此次反应这么迅速?

王晓野:就接入DeepSeek-R1这件事儿,大家需要明辨模型尺寸,比如有的上线的是1.5B、32B等尺寸不大的的蒸馏模型。但真正全量上线满血版(R1-671B)的,就目前而言,亚马逊云科技是为数不多的其中之一。

此前在V3发布前,我们业务团队就与DeepSeek背后社区进行交流。2024年4月Amazon Bedrock推出过一个功能叫做“自定义模型导入”,当时功能还在预览阶段时,最先上线的就是DeepSeek Coder模型,专门用于代码生成。

再到后来R1公布,我们与社区一直有比较好的沟通和技术经验,再加上DeepSeek开源版本的缘故,很快能实现模型的上线部署,在春节期间很快就实现了对DeepSeek的平台支持。

可以说,从去年到今年,我们在帮助客户部署DeepSeek模型这件事情上的工程化实践就一直没有停止过。

钛媒体:部署一套满血版的话对客户而言成本非常高,那么从云厂商上线DeepSeek后,各家云厂商之间会有比较明显的差异化吗?

王晓野:目前来看,其实没有太大差异。DeepSeek推理模型在服务器部署过程中,主要采用多集群方式,积累了很多推理层面的工程化经验。放在今天云厂商级别的话,大家掌握的知识是差不多的。

但是未来看的话,以亚马逊云科技自身的实践为例,比如同样对开源模型Llama的支出,去年re:Invent发布了延迟优化的推理功能,其底层就是结合了我们的自研芯片Amazon Trainium2,将Llama的推理性能优化到了现阶段整个云厂商中的性能最优。

钛媒体:去年亚马逊云科技也推出了自己的大模型Amazon Nova,像DeepSeek出现后会不会对亚马逊云科技自研大模型的思路产生一定影响或变化?

王晓野:大方向不会有太大影响。如果单从Amazon Nova系列模型推出来看,其仍然非常专注于专用的场景。因为我们坚持说不会有一个模型包打天下,是需要以最适合的模型去适配场景。

Amazon Nova系列模型,比如Nova Micro适用于文本校验、简单翻译等场景,Nova Lite低成本多模态,适用于图像、视频、文本生成,提供的极致性价比到今天为止还是最好的。Nova还没有推出逻辑推理能力的模型,我目前对于接下来Nova会不会做这方面工作,还没有更多的Insight。

如果将Amazon Nova与V3在通用场景下对比,大家都在第一梯队,没有结论说谁比谁更强。

钛媒体:DeepSeek存在哪些技术天花板?

王晓野:模型的天花板依然是存在的。模型的本质是生成token,究其原理也始终是存在幻觉的。第一梯队任何一个模型没有解决,或者说今天现阶段是没有解决。

第二个层面就是成本相对高的问题。尽管大家会模糊一些概念,就是模型的参数量越大,模型能力越强,所需的算力越多,这个逻辑下,企业针对场景选择智能还是性能,在性价比的问题上始终要做妥协和折衷。

另外,R1推理的思维链,其实过程越长,理论上生成一个token的成本也会相对越高。在推理阶段,虽然表面上看DeepSeek或各家的API价格不尽相同,但稳定性、持续响应问题依然存在,所以客户仍存在底层算力资源、数据定制,以及应用等方面的需求。

那么,针对这两个问题的回答:一是在工程层面,做好幻觉和有害内容的防护;二是需要底层算力不断优化,作为云厂商,有自己的自研芯片,有这样能力的公司会针对推理性能进行持续优化。看上去推理定价比较便宜,但放到企业级,能够真正稳定提供服务的时候,其成本就会很快上去了。

客户仍需要工程化手段控制模型输出

钛媒体:客户对你们有哪些诉求反馈?

王晓野:现在比较大的客户,如果是本地部署,就会特别担心算力不够用的问题,部署上模型后,又会担心稳定性的问题。另外,很多中国企业在调用海外区域来支持出海业务,但是从需求高涨,尝试性的角度,国内客户的尝试性也是比较高的,就是怎么通过各种大小的模型去快速部署。

所以今天再去看DeepSeek的应用端,出现服务器响应问题的频率还是比较高的。虽然它在部署时对整个吞吐进行了优化,但底层算力或整个资源还是相对固定的。

对于今天真正走到企业应用的客户而言,去体验的话,最好的方式肯定还是在云上。能够利用云上资源,以弹性的方式,不以拒绝客户的请求去实现一个比较好的服务可用性和连续性。这也是亚马逊云科技最近推出在Amazon Bedrock Marketplace、Amazon SageMaker Jumpstart上部署模型的原因。

当然,企业关注的是选好模型,针对具体的场景选择正确的模型;定制私有数据;然后通过一系列工程手段去降低成本;再通过工具层面的能力去控制好模型的输出。比如尽管今天DeepSeek表现特别好,但它依然存在有害内容,以及幻觉问题,也需要一个成熟的工具Guardrail来保证应用层面的输出是正确的。此外还有端到端的加密安全。这些话题我们认为在未来随着企业兴趣的高涨会变成其非常关注的话题。

钛媒体:目前平台上客户调用情况如何?增量有多快?

王晓野:需要强调的是,R1不只是在中国,全球范围内的客户都在关注,核心的原因也是在于其推理能力确实是全球第一梯队的能力。

同时,V3没有那么惊艳的原因,也是在于全球范围内还有不少的可选项,针对具体场景,大家可能都会有长有短。

再回到R1,尽管蒸馏后的稍小版本的关注度可能相对不高,但尝试小规模部署蒸馏版的客户有很多。在全球范围内客户真正主要的诉求还是满血版的R1,尤其是体量相对较大的客户,在比较积极的探索。

钛媒体:那么这个客户增量与之前亚马逊云科技上线的三方大模型相比,在速度层面会有明显的差异吗?

王晓野:比较类似。还是回到开源开放这件事情,其实是挺重要的。如果横向对比来看,有点类似于Llama。

因为相对于闭源模型,开源模型会有更为广泛的客户,比如一些典型的大企业,客户群广泛,且增长速度也比较快。

钛媒体:基于亚马逊云科技使用DeepSeek的客户只需为计算资源和工具付费吗?计费模式是怎样的。这跟使用Llama大模型是否相同?在调用价格的竞争上有优势吗?

王晓野:目前亚马逊云科技提供的版本并不是商业分成模式,同时对于模型其他的环节,包括做的部署工作等都不收费。客户目前在诸多调用模式下,需要为支出的底层云计算资源付费。

钛媒体:跟token计费模式相比,对于客户、云厂商而言是否都会有一些利弊?

王晓野:整体上看,Amazon Bedrock是对于用户而言最简单的一种方式,只要选择好模型,选好机型,就可以一键部署,并且也是最容易触达到满血版的模型的方式。

在Amazon Bedrock Marketplace和Amazon SageMaker JumpStart部署DeepSeek-R1模型,在中国区域调用DeepSeek R1和V3模型,最主要服务的场景是调用DeepSeek满血版,目前为止提供满血版能力的厂商仍然非常有限。

利用Amazon Bedrock的自定义模型导入功能部署DeepSeek-R1-Distill模型,和Amazon EC2 Trn1实例部署DeepSeek-R1-Distill模型。目前也是按照云资源计算,背后会有相应的成本核算。

未来理论上会随着底层优化,不断持续提升客户访问模型的性价比。

钛媒体:预计今年整体的中美AI竞争会处于什么态势?这个阶段对云供应商/算力供应商会带来哪些影响?

王晓野:未来的大模型焦点,可能不止是Agent reasoning,多模态也是未来很大的方向。

另外,我们会看到海外对负责任的AI和模型生成有害内容这一方面的使用,其担心会更大一些。以云厂商为首,大家都会加强这一方面的投入。

如果预测DeepSeek下一步带来的影响,首先会给中国企业尤其是偏传统的企业,会有两个信号释放出来:一是成本,二是推理能力。模型推理,特别适合企业提效,比如代码生成、Agent自动化完成任务的场景,像现在Agent很多企业在尝试但还没有走到特别成熟的阶段。那么,R1所展现出的推理能力,会再次推动Agent的落地,以及企业流程自动化的应用热潮。(本文首发于钛媒体APP,作者 | 杨丽,编辑 | 盖虹达)

ad1 webp
ad2 webp
ad1 webp
ad2 webp