不懂技术也能看懂的行业分析——从AI需求到产业链,从卡点到术语,一次讲透
AI训练需要成千上万的GPU协同工作 → GPU之间需要超高速通信 → 高速通信需要光模块 → 高速光模块需要InP材料
这就是整个逻辑链条。下面我们一步步拆解,看看每个环节为什么是这样。
训练一个大型AI模型(比如GPT-4)就像教一个学生读完全世界所有的书。 这个工作量太大了,一个人(一个GPU)做不完,需要成千上万的人(GPU)一起做。
想象一下:10,000个人一起写一本书。他们不能各写各的,必须不断交流: "我写到这里了,你那边怎么样?""这个词用得对吗?""我们的内容要连贯!"
GPU训练AI也是一样。每个GPU处理一部分数据,然后要把结果分享给其他GPU, 大家一起调整参数。这个过程每秒要进行几千次。
如果通信太慢,GPU就会"等待"其他GPU的数据,白白浪费计算能力。 这就像10,000个人开会,如果每个人说话都要等10秒才能传到其他人耳朵里, 这个会议效率会极低。
关键指标:GPU利用率。如果通信带宽不够,GPU利用率可能只有50-60%, 意味着一半的算力被浪费了。高速光互连可以把利用率提升到90%以上。
从2020年到2028年,单端口带宽需求增长32倍(100G → 3200G)
电信号在铜线中传输会遇到两个大问题:
光信号没有这些问题:可以传几十公里不衰减,而且光纤之间不会互相干扰。
光模块就是一个"翻译器":
GPU/交换机
电信号
光模块
光纤
光信号
每台AI服务器需要几十个光模块,一个大型AI集群可能需要几十万个光模块。
光模块的核心是激光器芯片,它负责把电信号转换成光信号。 800G以上的高速光模块需要用EML(电吸收调制激光器),而EML只能用InP材料制造。
AI服务器数量 × 每服务器光模块数量 × 每光模块InP用量 = InP总需求
2024年:100万台 × 12个 × 1片 = 1200万片InP衬底需求
2028年:350万台 × 48个 × 1片 = 1.68亿片InP衬底需求
增长14倍!