2022~2026 年 AI 伺服器出货量年复合成长率可达 10.8%

2022~2026 年 AI 伺服器出货量年复合成长率可达 10.8%

TrendForce 观察到始自 2018 年新兴应用题材带领,自驾车、AIoT 与边缘运算,许多大型云端业者大量投资 AI 相关设备建置,截至 2022 年,搭载 GPGPU(General Purpose GPU)的 AI 伺服器年出货量占整体伺服器比重近 1%,2023 年预估 ChatBot 相关应用加持下,可望再度刺激 AI 领域活络,出货量年成长可达 8%;2022~2026 年复合成长率达 10.8%。

TrendForce统计,2022年AI伺服器采购占比以北美四大云端业者Google、 AWS、Meta、微软合计占66.2%为最,中国近年随国产化力道加剧,AI建置浪潮增温,以字节跳动采购力最显着,年采购占比达6.2%,紧跟在後是腾讯、阿里巴巴与百度,分别约2.3%、1.5%与1. 5%。

藉AI最佳化自家搜寻引擎,AI需求持续带动HBM记忆体成长

看好AI发展前景,微软更大举投资OpenAI,除2月推出搜寻引擎Bing强化版,整合ChatGPT技术及与OpenAI合作开发大型语言模型「Prometheus」;百度也於2月宣布推出AI机器人服务「文心一言」( ERNIE Bot),初期将以独立软体呈现,後续也会导入搜寻引擎。

以运算规格看,ChatGPT以NVIDIA的A100为主,独家使用微软Azure云端资源。若合并其他微软应用计算,全年微软AI伺服器年需求为2.5万台。百度文心一言采NVIDIA的A800(美国商务部管制A100出口後的替代品),合并其他应用,百度AI伺服器年需求约2千台。TrendForce分析,以AI运算伺服器GPU而言,市场以NVIDIA的H100、A100、A800(满足中国需求)及AMD MI250、MI250X系列为主,NVIDIA与AMD伺服器GPU占比约8:2。

若聚焦以上GPU规格,因应高频宽运算的HBM(High Bandwidth Memory)更受市场瞩目。以位元计算,HBM占整个DRAM市场比重约1.5%,供应商以三星(Samsung)、SK海力士(SK Hynix)与美光(Micron)为主。 但NVIDIA的HBM3,SK海力士是目前唯一量产厂商,因此此规格主导市场,由於生产技术门槛高,对原厂属高毛利产品。

2020~2021年疫情期间担心供应链缺料,超额备料使HBM年需求成长率特别亮眼,自2023年起需求成长率因物料调节有收敛。TrendForce预估,2023~2025年HBM市场年复合成长率有望达40%~45%。整体而言,伴随全球云端业者逐年增加AI伺服器投资,尽管大环境受高通膨、经济增长放缓冲击,企业组织IT支出转趋保守,但ChatBot与搜寻引擎应用带动下,AI相关转型布局仍视为云端业者资本支出优先项目。

(首图来源:Created by Freepik)

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x