威尼斯(wns8885556·Venice认证)官方网站-BinG百科

行业动态

Yole:在中国供应商和节能技术驱动下 到2028年全球光收发器市场将翻番
供稿:本站编辑 发布时间:2023-08-17 浏览量:362次
分享:

2022年,全球光收发器市场产生的收入年增12.5%,至110亿美元。在大型云服务运营商对800G高数据速率模块的高需求和国家电信对增加光纤网络容量的要求推动下,Yole预计,到2028年,全球光收发器市场收入将达到222亿美元,从2022年至2028年间的年复合增长率(CAGR)为12%。

  

生成式人工智能将推动数据中心基础设施的扩张

  在Open AI的ChatGPT和谷歌的Bard等技术的引领下,人工智能使用的发展势头越来越强劲,并推动了数据中心的需求。随着技术集成商将生成式人工智能(Generative AI)更深入地应用于日常应用,数据中心对计算能力的需求将不断升级。人工智能所需的服务器计算机密度也会产生大量热量,从而对能源效率和可持续性提出了挑战。虽然人工智能是推动数据中心需求的主要因素,但其他应用,如超高清(UHD)视频和各种增强现实/虚拟现实(AR/VR)应用以及云服务(如社交网络、商务会议、超高清视频流、电子商务和游戏),也将继续推动数据中心需求增长。

  2022年,全球光收发器市场产生的收入年增12.5%,至110亿美元。在大型云服务运营商对800G高数据速率模块的高需求和国家电信对增加光纤网络容量的要求推动下,Yole预计,到2028年,全球光收发器市场收入将达到222亿美元,2022年至2028年间的年复合增长率(CAGR)为12%。

  Yole预计2023年全球光收发器市场收入将略有下降,主要原因是超大规模资本支出(Hyperscale CAPEX)的增长速度放缓。2023年超大型企业(Hyperscalers)的整体数据中心资本支出将大幅下降,另一方面,未来三年电信资本支出(Telecom CAPEX)将每年下降3%。然而,2023年,有线和无线电信设备的同比增长率可能只有1%。数据中心超大规模资本支出增长缓慢的原因之一是元宇宙(Metaverse)的关闭及其负面影响。Meta和其他受影响行业采取的行动将导致2023年光收发器部署放缓。

 

人工智能的推动下 中国的地位逐渐凸显

  全球光收发器行业竞争激烈。玩家既有提供广泛产品的大型国际公司,也有专门针对狭窄市场的小型公司。光收发器市场的主要竞争力包括为高速通信提供领先技术的能力、设计和制造高质量且可靠产品的能力,以及定制解决方案。光收发器提供商可以使用不同的技术和方法来克服物理限制,以实现更高的数据速率。可以清楚地看到,这两种战略(一种基于InP,另一种基于硅光子学平台)将在未来几年共存。竞争力强的玩家与两个平台都有关联。

  在不断追赶和加快发展的进程中,中国在光通信行业的地位日益突出。如今,高速模块的核心光学技术是美国和日本制造商的主导领域,但中国在砷化镓(GaAs)、磷化铟(InP)和硅光(SiPh)等光子制造平台上投入了大量资金。中国政府的《中国光电子器件产业技术发展路线图(2018-2022年)》确定了提高本土光芯片生产商市场份额的国家战略。中美贸易限制和中兴通讯禁令可能促使中国加大对高速光芯片的支持力度,中国本土光芯片生产有望进一步加速。

  人工智能驱动的NVIDIA最新系统设计将需要800G可插拔光模块,用于其即将推出的AI/ML硬件。他们正在投资线性非重定时技术,以缓解人工智能扩展带来的互连功率、功率密度和延迟等限制。中国顶级光学供应商正积极走向供应商前列。在过去的几个月里,它们在股票市场上的价值翻了三倍或四倍。

 

是时候推出采用新材料的新设计了

  硅光子是一种多功能平台,可以承载各种光子组件,如调制器、光电探测器(PD)、分路器、(解)复用器和滤波器,而与InP和GaAs等更成熟的III-V族材料相比,它在激光源方面受到限制。近年来,各种材料的集成已经高性能SiPh调制器开辟了额外的途径。在硅平台上引入其他材料,将TFLN(薄膜LiNbO3)、BTO(BaTiO3)、等离子体有机杂化物(POH)或石墨烯等其他材料引入硅平台以实现高效相移,有望取代硅,从而放宽对其功率、性能(速度、驱动电压)和占地面积的限制。

  高速光互连的功耗是数据中心内光链路的主要限制因素。最大的功耗来自交换ASIC和光模块之间的电气接口SerDes、数字信号处理器(DSP)和附加重定时器(CDR),特别是可插拔封装。共封装光学器件(CPO)是一种将光学器件和交换ASIC紧密结合在一起的新方法,旨在克服上述挑战。但是,CPO必须成长以满足所有行业要求。业内还有一种潜在的替代共封装光学器件的方案,即保留在交换机前面板上的线性驱动器可插拔光学器件(LPO)。在机器学习(ML)和高性能计算(HPC)中的交换机到交换机、交换机到服务器以及GPU到GPU连接等应用中,减少延迟是一个至关重要的改进。

 

分享: