英伟达与 Groq 的交易重绘 AI 芯片版图

人工智能
Nvidia’s Groq Move Rewrites the AI‑Chip Map
据报道,英伟达正以约 200 亿美元的交易规模,从 AI 芯片初创公司 Groq 获得技术授权并聘请其高级职员;尽管相关公司及细节尚不明朗,但此次交易或将重塑 GPU、TPU 与新兴 LPU 架构之间的竞争格局。

圣诞周的一笔交易可能重绘 AI 硬件版图

2025年12月24日,有报道称 Nvidia 已达成一项协议,将接手 AI 芯片挑战者 Groq 的关键技术和人员,交易估值约 200 亿美元。报道中混合了一个具体的说法——CNBC 称 Nvidia 将以约 200 亿美元的价格收购 Groq 资产——以及相关公司的立即澄清和说明。Nvidia 告知 TechCrunch,该安排并非对整个公司的收购;其他媒体将该协议描述为对 Groq 技术的非独家授权,以及聘用 Groq 高管,包括创始人 Jonathan Ross 和总裁 Sunny Madra。

交易要素及其引发的混淆

Groq 是一家私有初创公司,其在 2025 年 9 月以接近 69 亿美元的估值融资约 7.5 亿美元,并公开宣传其在开发者采用率方面的快速增长。该公司销售一种被称为 LPU(语言处理单元)的独特架构,专为大语言模型设计。Groq 声称,与传统的 GPU 推理相比,LPU 运行 Transformer 架构模型时的速度快出许多倍,且能耗仅为一小部分;这些主张是该技术吸引超大规模企业、云供应商以及现在的 Nvidia 关注的核心原因。

Groq 架构的承诺

Groq 的宣传具有技术针对性:LPU 并非重新利用图形硬件,而是围绕极简、确定性的指令流和大规模片上并行性构建,旨在消除 GPU 作为权衡而接受的许多调度和内存开销。通俗地说,Groq 认为其芯片通过移除软件和硬件抽象层,并针对 Transformer 工作负载定制数据流,能以更高的每瓦吞吐量运行相同的神经网络。

这些设计选择使得 LPU 在推理领域极具吸引力——即在生产环境中大规模提供大模型的响应——在这一领域,延迟、可预测的性能和能源成本至关重要。Groq 的创始人 Jonathan Ross 是该领域的知名架构师;他曾参与 Google TPU 系列的早期开发,在构建针对张量数学和机器学习工作负载优化的加速器方面拥有丰富经验。

为什么 Nvidia 想要 Groq 的技术

Nvidia 目前在 AI 硬件领域的统治地位建立在其 GPU 产品线和广泛的软件栈之上。但 GPU 是通用并行处理器;它们在训练和推理方面都表现出色,但在能耗和延迟差异方面存在折衷。如果 Groq 关于更高效率和确定性延迟的主张在大规模部署中站得住脚,Nvidia 将通过多种途径获益:将 LPU 理念融入未来的 GPU 或加速器中,获取专利和软件优化,并中和掉一个已经开始赢得优先考虑推理成本和尾部延迟(tail latency)客户的竞争对手。

引入 Groq 的领导层和工程师还将带来人力资本和产品知识——现有的技术巨头通常认为这些与具体的硅片同等重要。这种技术、人才以及潜在工具链的结合,可以加速一家能够大规模制造并供应全球云客户的大型公司内部的路线图转型。

行业背景:加速的硬件军备竞赛

Groq 的故事并非凭空出现。几个月来,主要的云和 AI 玩家一直在寻求 Nvidia GPU 垄断地位的替代方案。Google 一直在推进其 TPU 业务,并向合作伙伴做出大规模产能承诺;最近几周的报道描述了一些旨在使 TPU 与 PyTorch 更兼容并增加其对外部客户可用性的举措。Anthropic 与 Google 达成的数十亿美元 TPU 承诺,就是客户寻求非 Nvidia 产能的一个例子。与此同时,Meta 和 Alphabet 也被指参与了旨在改善流行的 AI 框架与非 GPU 加速器之间软件匹配度的项目。

所有这些举动都指向了一个市场动态:大型 AI 消费者希望拥有选择权——既是为了降低供应商集中度,也是为了在云规模上控制成本和性能。如果报道中 Nvidia 的举动有效地将 Groq 的创新纳入其生态系统,它就收窄了竞争对手正在努力构建的一条路径。

供应链、内存与实际限制

即使技术授权和人才转移很快,大规模生产先进加速器仍会面临实际的供应链限制。顶尖的 AI 芯片需要先进封装、高带宽内存 (HBM) 以及专门的测试和晶圆厂安排。行业传闻最近指出了云提供商和内存供应商之间的短缺和采购变化;这些瓶颈可能会减缓 Nvidia(或新合并的团队)任何新设计到达客户手中的速度。简而言之,IP 和人才很重要,但硅片的规模化生产仍取决于产能,而不仅仅是专利。

竞争、监管与客户选择

一项将具有前景的替代方案有效合并到市场领导者手中的交易,将引发客户、竞争对手和监管机构的质疑。担忧供应商锁定(vendor lock-in)的云提供商和模型所有者将密切关注:授权是否是非独家的,是否允许其他供应商采用 LPU 理念,或者 Nvidia 是否会将最优秀的精华部分纳入其专有栈中?从监管角度来看,如果该交易显著减少了 AI 计算的独立选择,可能会招致审查——特别是当各国都在推动主权 AI 基础设施和多元化供应商时。

后续关注点

预计未来几天会出现大量的澄清和否认。Nvidia 和 Groq 可能会发布更完整的声明,以统一不同的说法(资产购买还是授权加高管聘用),客户也将探究决定谁可以向谁销售哪些技术的合同条款。分析师也将根据交易是全面的资产收购还是较窄的技术协议,重新评估对 Nvidia、Groq 及其竞争对手的预期。

实际上,眼前的市场影响可能分为两类:供应和供应商策略的短期不确定性,以及 AI 加速器市场整合的长期加速。对于 AI 开发者来说,最终目标仍然是一样的:更多的计算选择、更低的推理成本和更快的模型响应。这一举动如何塑造这些结果,取决于 Nvidia 究竟购买、授权或聘用了什么。

这个故事生动地说明了 AI 硬件格局的变化速度之快:芯片架构的创新、战略性招聘和选择性授权可以像工厂调整设备一样迅速重塑竞争优势。目前,主角是上市公司和一家深科技初创公司,他们的下一次公开沟通将决定 200 亿美元这个数字标志着一场重磅收购、一次令人咋舌的授权,还是一次具有全行业影响的混合交易。

资料来源

  • Nvidia(公司声明和公开简报)
  • Groq(公司公告和融资披露)
  • Alphabet / Google(TPU 承诺和云硬件计划)
  • 关于 2025 年 12 月交易的主要财经报道
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 关于英伟达(Nvidia)与 Groq 的交易有哪些报道,该交易是如何构成的?
A 据报道,英伟达将通过一笔价值约 200 亿美元的交易接手 Groq 的核心技术和人员;英伟达方面表示,这并非完整的公司收购;其他媒体则将该安排描述为对 Groq 技术的非排他性许可,并聘用 Groq 的高级管理人员,包括创始人乔纳森·罗斯(Jonathan Ross)和总裁桑尼·马德拉(Sunny Madra)。
Q 什么是 Groq 的 LPU,他们提出了哪些主张?
A Groq 推向市场的是一种语言处理单元(LPU),专为大语言模型设计。该公司称,与传统的 GPU 推理相比,LPU 运行 Transformer 架构模型的速度要快得多,且能耗极低。其设计依赖于极简、确定性的指令流和大规模片上并行性,以最大限度地减少调度和内存开销,从而提高推理工作负载的每瓦吞吐量。
Q 如果 Groq 的理念或员工加入,英伟达能从中获得什么好处?
A 行业观察人士表示,英伟达可以通过将 LPU 理念整合到未来的 GPU 或加速器中、获取专利和软件优化,以及中和一家优先考虑低延迟推理的竞争对手而获益。引入 Groq 的领导层和工程师将提供人力资本和产品知识,帮助英伟达这家拥有全球云客户的大型制造企业加速其路线图的转型。
Q 这笔交易引发了哪些市场动态和监管问题?
A 分析师指出,此举将影响正在升温的硬件军备竞赛,谷歌的 TPU、Anthropic 对 TPU 的承诺,以及 Meta 和 Alphabet 开发的非英伟达加速器,都表明了市场对 GPU 以外选项的需求。该交易可能会引发针对供应商锁定以及许可是否具有排他性的审查;监管机构可能会权衡此举是否减少了 AI 计算的独立选择。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!