Neurophos 获 1.1 亿美元融资,推进光子 AI 芯片研发

Technology
Neurophos Raises $110M for Photonic AI Chips
总部位于奥斯汀的初创公司 Neurophos 宣布获得 1.1 亿美元新融资,用于光基 AI 加速器的商业化。该技术旨在降低数据中心能耗,并向现有 GPU 厂商发起挑战。

导读:奥斯汀在光计算领域的一场重注

2026年1月22日,总部位于奥斯汀的芯片初创公司 Neurophos 宣布获得1.1亿美元的新资金,以加速开发利用光进行计算的 AI 处理器。该公司表示,其光子方案可以大幅降低大语言模型和其他神经网络消耗的电力——这是对由单一现有厂商主导的以 GPU 为中心架构的直接挑战。Neurophos 还告诉当地记者,随着公司从实验室原型向生产级硬件迈进,计划在2026年底前将员工人数增加三倍以上。

光子加速

Neurophos 的核心主张基于一个明确的物理优势:光子的运动不会产生困扰电子的电阻发热。在集成光子学中,通过微小波导引导并由光学组件操控的光,利用干涉、相移和调制而非晶体管开关,来执行核心线性代数运算——即在神经网络工作负载中占主导地位的乘加运算。对于某些类型的 AI 推理和线性代数任务,这可以显著提高每次运算的能效。

这一承诺已在大学实验室中酝酿多年。Neurophos 的技术血统可以追溯到数十年的光学和硅光子学研究,包括杜克大学 (Duke University) 在工程光学材料和器件架构方面的研究。同一领域的光学研究曾为隐身和超材料等奇特演示提供过思路;Neurophos 的创始人现在正试图将这些原理转化为可用于现代 AI 的商业化加速器。

为什么投资者正予以关注

对于一家试图在价值数百亿美元的市场中撼动现有巨头的器件级初创公司来说,1.1亿美元是一笔可观的资金储备。对投资者而言,吸引力来自两个方面:AI 计算市场的规模,以及遏制超大规模数据中心能源成本的迫切需求。大型模型在单个设施中已经消耗了数兆瓦的电量;在数百万次查询中削减单次推理的功耗具有立竿见影的运营价值。

Neurophos 的声明发布之际,AI 基础设施的买家和运营商正积极寻求替代主流基于 GPU 堆栈的方案。GPU 虽然极其灵活并拥有庞大的软件生态系统,但其性能是以高功耗和复杂的冷却需求为代价的。光子加速器承诺了一种根本不同的权衡:在某些线性代数工作负载中降低电能消耗,代价是在精度、封装和集成方面面临新的工程挑战。

技术现实与局限

让光子学具有吸引力的物理特性同时也设定了严格的约束。光学计算往往是模拟的:权重和信号被编码在光的振幅或相位中。这种模拟特性带来了效率,但也带来了噪声、漂移以及对制造公差和温度的敏感性。实现许多现代模型所需的数值精度——尤其是在训练期间——并非易事。即使是对于通常可以接受较低精度的推理任务,系统架构师也必须解决如何在光学计算和存储巨大模型权重的数字存储器之间进行转换的问题。

制造是另一个实际障碍。虽然硅光子技术发展迅速,但复杂光子芯片的大批量生产仍落后于先进的电子代工厂。封装——将光源、调制器、探测器和控制电子设备耦合到坚固模块中的过程——成本高昂且通常需要定制。这使得从原型到机架级部署的路径比纯电子设计更长、风险更大。

产品策略与近期里程碑

Neurophos 已暗示将在2026年之前大幅扩大员工规模,从研究转向工程和系统集成。本轮融资旨在加速人才招聘,并支持芯片制造、测试平台和早期客户对接。该公司的公开声明侧重于数据中心的推理工作负载,在这些场景中,确定的延迟和每次查询的功耗是运营商最关心的商业杠杆。

执行力需要在多个方面取得并行进展:在关键指标上明显优于 GPU 的光子引擎、可插入现有机器学习框架的软件,以及解决冷却、可靠性和可维护性的系统级工程。合作伙伴——包括硅光子代工厂、光学组件供应商以及愿意试用新型加速器硬件的超大规模云服务商——将至关重要;该公告未指明具体的制造合作伙伴或核心客户。

竞争与软件难题

Neurophos 进入了一个拥挤的领域,这里充满了探索 GPU 计算替代方案的初创公司和实验室,涵盖从定制数字 ASIC 到专用模拟加速器以及其他光子方案。最根深蒂固的竞争对手是现有的 GPU 和加速器生态系统,它们受益于多年的软件优化、编译器工具链和开发者的熟悉度。该软件堆栈是一条主要的护城河:任何新硬件要么必须支持相同的编程模型,要么必须提供压倒性的成本效益优势,以证明重新开发软件的合理性。

弥合软件鸿沟通常是决定性的技术和商业挑战。光子器件需要驱动程序、编译器和数值库,以便将神经网络图转化为光学运算,同时补偿模拟特性的缺陷。比起单纯依赖原始器件性能的公司,将硬件进步与开发者友好型工具链相结合的初创公司更有可能获得市场青睐。

对电力和气候的影响

如果光子加速器能够大规模实现能效的阶跃提升,AI 的气候影响和经济效益将随之改变。超大规模云服务商面临着降低运营碳足迹和能源账单的压力,任何能够降低每次推理千瓦时的技术都可能被迅速采用。然而,只有在设备稳健、可制造且易于在大型服务器集群中操作时,这些收益才会实现。

同样重要的是,计算能源的节省并不会自动转化为净排放量的减少:这取决于这些计算部署在何处以及如何部署、迁移了哪些工作负载,以及单位运算能效的降低是否会促使模型的使用范围进一步扩大。技术是必要的,但不是充分的;系统级的部署选择决定了真实的气候影响。

前景:高风险,高回报

Neurophos 的1.1亿美元融资赢得了时间和信誉。对于该公司来说,眼下的任务是将物理演示转化为可在真实数据中心部署和支持的产品化模块。如果取得成功,这将成为材料和器件级创新有效重塑由 GPU 巨头主导的数十亿美元平台市场的罕见案例之一。

失败也是一个现实的结果。这家初创公司面临着技术规模化的挑战、根深蒂固的软件生态系统,以及从实验室晶圆转向机架级系统所需的资本密集度。即使取得了优异的成果,要说服云端和企业客户采用新型加速器,仍需要试点项目、工程投入和可论证的投资回报。

对于半导体供应链和 AI 基础设施的观察者来说,Neurophos 的故事不仅因其技术主张而值得关注,还因为它信号式地反映了投资者对非 GPU 优先计算方案的兴趣。该公司计划在2026年前快速增加员额,以及本轮融资金额之大,都表明投资者看到了商业机会之窗——但他们也在“光”上押下了重注,希望能借此回答现代 AI 领域最令人头疼的一些能源问题。

来源

  • 杜克大学 (Duke University)(光子学和超材料的基础研究)
  • Neurophos(公司新闻资料)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Neurophos 宣布了什么,其光子 AI 加速器的目标是什么?
A Neurophos 宣布获得了 1.1 亿美元的新资金,用于加速研发利用光进行计算的 AI 处理器。该公司旨在将光子加速器商业化,这种加速器能够显著降低大语言模型和其他神经网络消耗的电力,从而对占据市场主导地位的以 GPU 为中心的架构发起挑战。公司还计划从实验室原型转向生产级硬件,并计划到 2026 年将员工人数增加三倍。
Q 光子加速器是如何工作的,为什么它们能节省能量?
A 光子加速器依靠光子移动而不会产生电阻发热;集成光子学利用波导和光学元件通过干涉、相移和调制来执行乘加运算,从而降低特定 AI 工作负载的单次运算电能消耗;然而,挑战包括其模拟特性、噪声、精度以及光学计算与数字存储器之间的转换。
Q 扩展光子 AI 硬件的主要技术障碍是什么?
A 技术现实制约了光子学:计算在很大程度上是模拟的,具有噪声和温度敏感性;实现训练所需的精度并非易事,且推理仍需将光学结果转换为数字模型权重。在大规模光子芯片制造方面,工艺落后于电子芯片;封装成本高昂且多为定制,使得机架级部署比纯电子设计耗时更长、风险更高。
Q Neurophos 的近期产品计划和里程碑是什么?
A Neurophos 计划到 2026 年扩充员工规模,资助流片、测试平台,并在从原型向生产级硬件过渡的过程中寻求早期客户参与。其重点是数据中心的推理工作负载,同时同步推进光子引擎、机器学习框架的软件插件,以及针对冷却、可靠性和可维护性的系统工程。
Q 为什么软件和生态系统是光子 AI 面临的挑战,成功的决定性因素是什么?
A 光子初创公司面临着根深蒂固的 GPU 生态系统,后者的软件栈、编译器工具链和优化库构成了一道宽阔的护城河。为了取得成功,硬件必须要么支持现有的编程模型,要么提供明显更优的性价比。弥合软件差距需要驱动程序、编译器和数值库,在减轻模拟缺陷影响的同时,将神经网络转化为光学运算。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!