大型云端业者积极建置 AI 伺服器,加速推升 AI 晶片与 HBM 需求,预估 2024 年先进封装产能将提升三到四成
根据 TrendForce 研究指出,2023 年由 ChatBOT 等生成式 AI 应用带动 AI 伺服器成长热潮,又以大型云端业者最积极投入,包含 Microsoft、Google、AWS 或其他中系业者如 Baidu、ByteDance 等陆续采购高阶 AI 伺服器,以持续训练及优化其 AI 分析模型。高阶 AI 伺服器需采用的高阶 AI 晶片,将推升 2023-2024 年高频宽记忆体(HBM)的需求,并驱动先进封装产能 2024 年将成长三到四成。
TrendForce指出,为提升整体AI伺服器的系统运算效能,以及记忆体传输频宽等,NVIDIA、AMD、Intel等高阶AI晶片中大多选择搭载HBM。目前NVIDIA的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper晶片中,单颗晶片HBM搭载容量再提升20%,达96GB。另外,AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高阶MI300X则达192GB,提升了50%。同时预期Google将於2023年下半年积极扩大与Broadcom合作开发AISC AI加速晶片TPU亦采搭载HBM记忆体,以扩建AI基础设施。
TrendForce预估,2023年市场上主要搭载HBM的AI加速晶片(如NVIDIA的H100及A100、AMD的MI200及MI300及Google的TPU等),搭载HBM总容量将达2.9亿GB,成长率近六成,2024年将持续成长三成以上。
此外,AI及HPC等晶片对先进封装技术的需求日益提升,其中,以TSMC的CoWoS为目前AI 伺服器晶片主力采用者。CoWoS封装技术主要分为CoW和oS两段,其中,CoW主要整合各种Logic IC(如CPU、GPU、AISC等)及HBM记忆体等,另外,oS部分则将上述CoW以凸块(Solder Bump)等接合,封装在基板上,最後再整合到PCBA,成为伺服器主机板的主要运算单元,与其他零组件如网路、储存、电源供应单元(PSU)及其他I/O等组成完整的AI伺服器系统。
TrendForce观察,估计在高阶AI晶片及HBM强烈需求下,TSMC於2023年底CoWoS月产能有望达12K,其中,NVIDIA在A100及H100等相关AI Server需求带动下,对CoWoS产能较年初需求量,估提升近五成,加上AMD、Google等高阶AI晶片需求成长下,将使下半年CoWoS产能较为紧迫,而此强劲需求将延续至2024年,预估若在相关设备齐备下,先进封装产能将再成长三到四成。
TrendForce指出,值得注意的是,在AI较急促需求下,无论是HBM或CoWoS生产过程中,得後续观察周边配套措施,例如直通矽晶穿孔封装技术(TSV)、中介层电路板(Interposer)以及相关设备(如湿制程设备)等是否能到位,如前置时间(Lead Time)等考量。而在AI强劲需求持续下,估NVIDIA针对CoWoS相关制程,亦不排除将评估其他类似先进封装外援,例如Amkor或Samsung等,以因应可能供不应求的情形。
注:本文高阶AI Server指搭载高阶AI晶片的Sever设备, 针对如大型CSPs或HPC等AI模型训练应用, 高阶AI晶片包含如NVIDIA的A100或H100, 或AMD的MI200、MI300,或Intel的Max GPU等。Samsung主力先进封装技术为Cube系列,如I- Cube、H-Cube、X-Cube等; Amkor先进封装技术涵盖晶圆级封装(WLP)、覆晶封装、 系统级封装等。
(首图来源:shutterstock)