DeepSeek,不仅刷屏全球互联网,还被多次“挤”到宕机,更是一夜暴击美股,吓崩英伟达,分析师惊呼AI企业迎来“斯普特尼克时刻”。
周一,欧美科技股重挫,英伟达跌近17%,市值蒸发近6000亿美元(近4.3万亿人民币)为美股史上规模最大,芯片指数大跌超9%,博通跌超17%,台积电跌超13%。
纳指跌超3%领跌,纳指100创六周最大跌幅且市值蒸发近1万亿美元,芯片指数大跌超9%为2020年3月以来最差表现,欧美AI供应链概念股下挫,但亚马逊和Meta转涨。
DeepSeek引发了全网激烈讨论,而真正引人注目的是其打破传统AI资本支出规模。
开发该模型仅用2个月,花费不到600万美元,相比之下,Meta团队仅薪酬就超过DeepSeek全部培训预算,Open AI每年支出超过50亿美元,“星际之门”计划正生成投资5000亿美元......
华尔街认为,AI企业盈利或面临走低风险、也有将此类比AI泡沫破灭时刻,同时还有认为领先AI公司不会放弃先进GPU。对AI行业而言,人工智能开发变得更加容易,硬件要求和成本将大幅下降,竞争急剧加剧、科技巨头“护城河”变“小水坑”。
而海外网友才开始经受R1的“洗礼”,DeepSeek又发布了新的模型,给闭源模型带来开源图像生成的震撼......
DeepSeek暴击欧美科技股,英伟达市值蒸发近4.3万亿,规模创美股史上最大
DeepSeek暴击华尔街,引发AI概念股的估值泡沫破裂担忧,欧美科技股市值或蒸发1.2万亿美元、Meta紧急组建多个小组研究复制DeepSeek的数据和技术。
截至周一美股收盘,英伟达下跌近17%,收报118.42美元,单日的市值蒸发规模达到5890亿美元,合人民币4.27万亿元,为美国股市历史上最大,这打破了之前的纪录。
去年9月初,英伟达单日重挫超9%,市值单日蒸发2790亿美元,当时也创下了美国股市历史上最大的单日市值蒸发规模。本次市值跌幅远超上一次的纪录。
周一,英伟达也同时失去全球市值最大公司的宝座,不及苹果和微软,跌至第三。
由于英伟达在主要指数中占有较大的比重,其股价下跌对整个美股市场产生了重要影响。据彭博社数据,包括本周一在内,标普500指数市值损失最大的10个交易日中,有8次都是与英伟达大跌相关。
周一纳指跌超3%,标普500指数跌近1.5%,资金轮转至道指,道指上涨0.65%。英伟达两倍做多ETF收跌将近34%。美股半导体ETF重挫超9.8%,这是2020年3月16日以来的最大单日跌幅,2020年当天收跌超14%。
以英伟达为首的科技股重挫,令包括英伟达CEO黄仁勋在内的全球前500位富豪的资产净值在1月27日合计蒸发1080亿美元。其中,黄仁勋财富一日损失201亿美元。
同日,英伟达表示,DeepSeek是出色的人工智能(AI)进步,推理即运行AI模型的计算过程需要大量英伟达GPU和高性能网络支持。
英伟达两倍做多ETF收跌将近34%。美股半导体ETF重挫超9.8%,这是2020年3月16日以来的最大单日跌幅,2020年当天收跌超14%。
欧美芯片制造商以及为AI和数据中心供电的全产业链公司齐跌。芯片指数大跌超9%,博通跌超17%,台积电跌超13%,AMD和阿斯麦跌约6%,Altman押注的核电股Oklo跌近26%,投资AI的科技巨头中,微软跌4.6%后跌幅砍半,亚马逊和Meta转涨,苹果涨超3%。
受避险情绪推动,美元和美债收益率急跌至五周多最低,交易员还上调美联储降息押注,完全消化年内降息50个基点美元。风险资产美油盘中跌3%,比特币一度跌穿10万美元,股市大跌带来的流动性问题令黄金也跌超1%。
华尔街: AI企业盈利面临走低风险、美股迎来AI泡沫破灭时刻
DeepSeek对整个AI行业意味着什么?华尔街怎么看?
杰富瑞分析师Graham Hunt团队指出,科技巨头们面临资本支出合理性的质疑,或导致数据中心收入和利润增长轨迹走低。
瑞穗则提到,这发生在一个“痛苦的时刻”:
我们刚刚看到星际之门公告(到 2028 年预计约为 5000 亿美元)和 Meta 将资本支出正式提高到 600-650 亿美元以扩大 Llama 规模,当然还有微软 800 亿美元的公告……市场现在想知道这是否是市场人工智能泡沫破灭的时刻(例如思科的互联网泡沫),英伟达是标普500 指数中权重最大的单一公司,占 7%。
花旗分析师Atif Malik认为, 尽管美国公司在最先进 AI 模型上的主导地位可能会受到挑战,但我们估计在不可避免的更严格的环境中,美国公司仍然占据优势。因此,我们预计领先的AI公司不会放弃更先进的GPU,最近AI资本支出公告表明了对先进芯片的需求。
伯恩斯坦报告认为, DeepSeek实际上讨论的是两个模型系列,但价格战的言论足以让Mag7本已不明朗的投资回报率雪上加霜。
DeepSeek 的定价确实远远超过了竞争对手,该公司的模型定价比 OpenAI 的同类模型便宜 20 到 40 倍, 当然,我们不知道 DeepSeek 在这方面的经济效益(而且这些模型本身是开放的,任何想要使用它们的人都可以免费使用),但整个事情提出了一些非常有趣的问题,关于专有与开源努力的作用和可行性,可能值得做更多的研究……
高盛分析师称,目前的明确共识是,谨慎看跌美国科技股,直到公布美股科技巨头Mag 7财报为止,财报的重点是AI相关资本支出。DeepSeek带来的部分关键影响是,软银对“星际之门”的投资回报、资本雄厚的互联网巨头与初创企业可能存在竞争、推理相比预训练所需的计算资源大幅减低、中国企业有进一步全球扩张的潜力。
对AI行业意义方面,dropbox AI 副总裁 Morgan Brown做了一系列的总结:
1、首先,介绍一些背景:目前训练顶级AI模型的成本极其高昂。OpenAI、Anthropic 等仅在计算上就花费了1亿美元以上。他们需要拥有数千个4万美元GPU的大型数据中心,这就像需要一整座发电厂来运行一家工厂一样。 2、DeepSeek 突然出现并说,如果我们花 500 万美元做这件事会怎么样?”他们不只是说说而已——他们真的做到了。他们的模型在许多任务上匹敌甚至击败了 GPT-4 和 Claude。人工智能世界震动了。 3、怎么做到的?他们从头开始重新思考一切。传统AI就像是把每个数字都写成32位小数,DeepSeek是如果我们只使用 8 位小数呢?它仍然足够准确!砰——所需内存减少了 75%。 4、然后是他们的多标记预测,普通人工智能的阅读方式就像一年级学生一样:“这......猫......坐......”DeepSeek 一次读完整个短语,速度快2倍,准确率高90%。当你处理数十亿个单词时,这一点很重要。 5、但真正聪明的是:他们建立了一个“专家系统”。他们没有使用一个试图了解一切的大型人工智能(比如让一个人同时成为医生、律师和工程师),而是拥有只在需要时才醒来的专门专家。 6、传统模型:所有 1.8 万亿参数始终处于活动状态,DeepSeek总共 671B,但一次只能激活37B。这就像拥有一支庞大的团队,但只召集每个任务真正需要的专家。 7、结果令人震惊:培训成本:1 亿美元 → 500 万美元;所需 GPU:100000 → 2000;API 成本:便宜 95%;可以在游戏 GPU 而不是数据中心硬件上运行。 8、最疯狂的部分都是开源的,任何人都可以检查他们的工作,代码是公开的,技术论文解释了一切。 9、重要的是,它打破了“只有大型科技公司才能涉足人工智能”的模式,你不再需要价值数十亿美元的数据中心,几个好的 GPU 就可以做到这一点。 10、对于英伟达来说,这很可怕。他们的整个商业模式都建立在销售利润率高达90%的超级昂贵 GPU 的基础上,如果每个人都能突然用普通的游戏 GPU 做 AI……那么,你就知道问题所在了。 11、关键在于:DeepSeek 的团队不到 200 人,但 Meta 的团队仅薪酬就超过了 DeepSeek 的整个培训预算……而且他们的模型并不那么好。 12、这是一个经典的颠覆故事:既有者优化现有流程,而颠覆者重新思考根本方法。 13、影响巨大:人工智能开发变得更加容易;竞争急剧加剧;大型科技公司的“护城河”看起来更像水坑;硬件要求(和成本)大幅下降。 14、OpenAI 和 Anthropic 等巨头不会止步不前。他们可能已经在实施这些创新,但效率精灵已经从瓶子里出来了——不可能再回到“只是投入更多 GPU”的方法了。 15、最后的想法:这感觉就像是我们回顾时会认为的一个转折点,就像个人电脑让大型机变得不那么重要,或者云计算改变了一切。人工智能即将变得更加普及,成本也更低。问题不在于它是否会颠覆当前的参与者,而是颠覆的速度有多快。
英伟达正面临前所未有的威胁
还有分析表示,英伟达实际上很难达到市场的高期望。分析表示,英伟达面临着前所未有的竞争威胁,20倍预期销售额和75%毛利率的溢价估值越来越难以证明其合理性。该公司在硬件、软件和效率方面的所谓“护城河”都出现了令人担忧的裂痕,地球上数以千计最聪明的人,在数十亿美元的资本资源的支持下,正试图从各个角度攻击他们。
在硬件方面,Cerebras和 Groq的创新架构表明,英伟达的互连优势(其数据中心主导地位的基石)可以通过彻底的重新设计来规避。更传统的是,每个主要的英伟达客户(谷歌、亚马逊、微软、Meta、苹果)都在开发定制芯片,这可能会蚕食高利润数据中心的收入。 软件护城河似乎同样脆弱,MLX、Triton 和 JAX 等新的高级框架正在抽象化CUDA的重要性,而改进AMD驱动程序的努力可能会解锁更便宜的硬件替代品。最重要的是,我们看到了LLM驱动的代码转换的出现,它可以自动将CUDA代码移植到任何硬件目标上运行,从而有可能消除英伟达最强大的锁定效应之一。 最令人震惊的是DeepSeek最近的效率突破,以大约1/45的计算成本实现了可比的模型性能。这表明整个行业一直在大量过度配置计算资源。再加上通过思维链模型出现的更高效的推理架构,对计算的总体需求可能比目前的预测要低得多。这里的经济效益是令人信服的:当DeepSeek能够达到GPT-4级别的性能,同时API调用费用降低95%时,这表明要么的客户在浪费资金,要么利润率必须大幅下降。 台积电将为任何资金充足的客户生产具有竞争力的芯片,这一事实自然限制了英伟达的架构优势。但从根本上讲,历史表明,市场最终会找到绕过人为瓶颈的方法,从而产生超额利润。
这些威胁加在一起表明,英伟达在维持其当前增长轨迹和利润率方面面临的困难要比其估值所暗示的要大得多。有五个不同的攻击方向——架构创新、客户垂直整合、软件抽象、效率突破和制造民主化——至少有一个成功对英伟达的利润率或增长率产生重大影响的可能性似乎很高。按目前的估值,市场还没有将这些风险中的任何一个计入价格。
刚刚暴击华尔街,DeepSeek再发布新开源AI模型
美东时间1月27日周一,AI社区Hugging Face显示,DeepSeek发布了分别名为Janus-Pro和JanusFlow的一系列开源多模态AI模型,参数大小从10亿到70亿不等,都已可在Hugging Face下载。
其中,70亿参数的Janus-Pro-7B号称在图像创建的能力方面超越了OpenAI 的DALL-E 3和Stable Diffusion模型。
DeepSeek展示的下图可见,在文生图GenEval和DPG-Bench基准测试中,Janus-Pro-7B的准确率较前代Janus大幅提高,准确率测试结果分别为80%和84.2%,高于包括DALL-E 3在内的其他对比模型,Janus的准确率分别为61%和79.7%。
DeepSeek称,Janus-Pro和JanusFlow的代码基于MIT许可证授权,这意味着它们可以不受限地用于商业用途。
1)Janus-Pro采用视觉编码解耦方式 统一Transformer架构
Janus-Pro是一款统一多模态理解与生成的创新框架,通过视觉编码解耦的方式,采用独立的路径分别处理多模态理解与生成任务,从而解决视觉编码器在两种任务中的功能冲突,大幅提升模型在不同任务中的适配性与性能,同时仍使用统一的 Transformer 架构处理多模态任务。
DeepSeek介绍:
“Janus-Pro 是一种新颖的自回归框架,统一了多模态理解和生成。它通过将视觉编码分离为独立的路径来解决以前方法的局限性,同时仍然使用单一、统一的转换器架构进行处理。Janus-Pro超越了之前的统一模型,并达到或超过了特定任务模型的性能。Janus-Pro 的 简单、 高灵活性和 有效性使其成为下一代统一多模式模型的有力候选者。”
Janus-Pro基于DeepSeek-LLM-1.5b-base 和 DeepSeek-LLM-7b-base两个架构打造,使用SigLIP-L视觉编码器,高质量图像生成能力,支持384x384 分辨率输入,满足多场景需求,并采用LlamaGen Tokenizer生成模块,下采样率为 16,生成更精细的图像。
Janus-Pro架构高度灵活且设计统一,可适配视觉问答、图像标注等多模态场景。
下图可见Janus-Pro和Janus的文生图效果对比。相比Janus,Janus-Pro对短提示词的输出更稳定,视觉质量提高,细节更丰富,且增加了生成简短文本的功能。
2)JanusFlow极简架构 无需复杂架构修改 生图支持384x384分辨率
DeepSeek介绍,JanusFlow这个框架将图像理解和生成统一在一个模型中。
对于JanusFlow,DeepSeek采用了“一种极简架构,将自回归语言模型与生成建模中最先进的方法“矫正流”(Rectified Flow)相结合。” DeepSeek发现,矫正流可以在大语言模型(LLM)框架内直接训练,无需进行复杂的架构修改。
换言之,JanusFlow的架构极简,直接将生成流融入LLM框架,从而简化了多模态建模流程。
DeepSeek称,JanusFlow 是一款统一的理解和生成多模态大语言模型(MLLM)。它将视觉编码与多模态理解和生成分离,它基于 DeepSeek-LLM-1.3b-base构建。
对于多模态理解,JanusFlow使用 SigLIP-L 作为视觉编码器,支持384 x 384图像输入。对于图像生成,JanusFlow 使用矫正流与SDXL-VAE结合,生成 384 x 384分辨率图像。提供的检查点是预训练和监督微调后的EMA检查点。
下图可见JanusFlow的基准测试表现与LLaVA等其他模型对比,以及它的生图结果展示。
作者李丹 赵颖 何浩 杜玉 黄雯雯等
本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。
2025,信心同行,美好可期