当前位置:首页 > 情感 > 正文

英伟达盘前跌超11%!DeepSeek震动华尔街,高端芯片需求可能放缓?

  • 情感
  • 2025-01-27 19:02:08
  • 23

视觉中国 图

由国产大模型公司深度求索(DeepSeek)旗下最新模型带来的影响在海外持续发酵,市场密切关注上游AI(人工智能)硬件市场是否会波及。

1月27日,DeepSeek应用登顶苹果中国地区和美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。DeepSeek系量化巨头幻方量化旗下大模型公司,1月20日,该公司正式发布推理大模型DeepSeek-R1。

推出后不久,R1就凭借其开源的性质、大幅下降的售价和训练成本获得了广泛关注。作为一款开源模型,R1在数学、代码、自然语言推理等任务上的性能能够比肩OpenAI o1模型正式版,并采用MIT许可协议,支持免费商用、任意修改和衍生开发等。

更令市场惊讶的是,据DeepSeek介绍,R1的预训练费用只有557.6万美元,在2048块英伟达H800 GPU(针对中国市场的低配版GPU)集群上运行55天完成。

此前,AI初创企业OpenAI和Anthropic一直在与谷歌、Meta等科技巨头围绕大模型展开激烈竞争,“大力出奇迹”的“烧钱”模式成为了在这些企业间流行的选项。例如,Meta预计2024年资本支出为 380亿至400亿美元,而根据此前财报的统计,谷歌的2024年资本支出或超480亿美元。微软和亚马逊也预计2025年资本支出将继续上行。

毫无疑问,DeepSeek的横空出世又增强了这些企业的危机感。当地时间1月23日,一名脸书母公司Meta的员工在匿名职场论坛Teamblind上发帖称,Meta内部已经因为DeepSeek-R1进入“恐慌模式”:“Meta的工程师们正在争分夺秒地分析DeepSeek,试图复制其中一切可能的技术。”有认证为谷歌员工的网友回复称:“DeepSeek做的事情很疯狂。不仅是Meta,OpenAI、谷歌和Anthropic都因为他们而火烧屁股。”

R1发布后不久,Meta首席执行官马克·扎克伯格就宣布,Meta在2025年的资本支出将超600亿美元,加大对AI的投入。1月27日,据外媒报道,Meta成立了四个专门研究小组来研究量化巨头幻方量化旗下的国产大模型DeepSeek的工作原理,并基于此来改进旗下大模型Llama。

当地时间1月24日,2024年诺贝尔化学奖得主、谷歌DeepMind的CEO德米斯·哈萨比斯(Demis Hassabis)也在采访中评价了DeepSeek:“可以肯定的是,他们取得的成就令人印象深刻,中国具有极强的工程和规模化能力。”

DeepSeek-R1的出现不仅让Meta等科技巨头产生了危机感,还震动了上游概念股。由于R1的显著进步并非完全建立在算力基础上,华尔街开始考虑科技行业巨头对AI基础设施的巨额投资以及对英伟达芯片的需求是否合理。

截至发稿时,美股盘前,英伟达(Nasdaq:NVDA)跌超11%,博通跌超11%,台积电、Arm跌超10%,同时,在日本股市,英伟达的主要供应商Advantest Corp(TYO:6857)的股价暴跌8.6%。

外媒分析指出,如果DeepSeek的成功能够鼓励AI初创公司用更少的芯片构建强大的AI模型、并将它们更快地推向市场,那么英伟达的收入增长可能会放缓,因为大模型开发人员会复制DeepSeek使用数量更少且配置较低的AI芯片的策略。

华尔街研究机构Yardeni Research的分析师Ed Yardeni在报告中写道:“对于计划通过高昂的AI服务主导市场的‘美股七巨头’而言,(DeepSeek-R1)可能是个坏消息。关键在于,当AI资本支出的飙升速度远超收入增速,这是否会导致市场失望?”Yardeni认为,在这种情况下,英伟达的营收也可能受到波及。

美国投行Raymond James的分析师Srini Pajjuri也在报告中写道:“DeepSeek显然无法获得与美国超大规模企业一样多的算力,但却设法开发出了一种看起来极具竞争力的模式。一个自然浮现的问题是,DeepSeek的出现将如何影响算力的增长以及对硬件和半导体的需求?”

不过,Pajjuri指出,DeepSeek-R1也可能转而促使美国科技巨头们“更加迫切地利用其关键优势(即英伟达GPU)来与更便宜的替代品拉开距离”。

摩根大通分析师Joshua Meyers写道,DeepSeek颠覆性的主张是“更多的投资并不等于更多的创新”,这一观念开始在美国AI领域引起关注。不过,Meyers也表示,降低的成本并不意味着AI企业不再需要更多的算力,更不意味着投入最多资金的一方不会获胜,而是会迫使DeepSeek的竞争对手提高效率、降低推理成本。

对于DeepSeek-R1为何能大幅降低训练成本,Logenic AI公司联合创始人李博杰对澎湃新闻记者表示,这是由于R1的核心在于后训练阶段,所需要的数据量和成本都会远低于预训练阶段,相当于“站在巨人的肩膀上”。不过,虽然这样的成功可以复制,但最前沿的大模型探索还是需要消耗很大的算力和成本,然后才能实现“左脚踩右脚”的数据飞轮效应。

而对于AI模型的训练成本下降是否会影响上游AI硬件企业,李博杰认为,虽然AI目前看起来发展很快,但背后其实有很多大家看不到的试错的过程,整体依然处于研究阶段,所以“更多的(算力)卡和更多的资源肯定还是有优势的”。

FutureLabs未来实验室首席专家胡延平表示,接下来要看DeepSeek的热度能够持续多久:“如果不看开源生态,只看C端角度,DeepSeek要想站稳,至少需要尽快具备多模态文生图文生视频、理解图像、语音交互等能力,尤其类AVM(全景影像系统)、知识库、结合Agent(智能体)等既有形态,能否形成模型矩阵和Apps生态等,可能会决定其热度是短期还是长期,舆论热度能否充分转化为市场实地,以及能否内与豆包、外与ChatGPT分食市场。”

有话要说...