算力需求与内存瓶颈的矛盾:以 GPT-4 为例,训练过程需处理超 1 万亿参数,对内存带宽要求达 1TB/s 以上,传统 DDR5 内存带宽仅为 100GB/s 左右,无法匹配算力输出;而 HBM2e 产品带宽可达 819GB/s,HBM3 产品更是突破 1TB/s,完美解决 “算力跑太快、内存跟不上” 的核心矛盾;
AI 芯片与 HBM 的绑定趋势:全球头部 AI 芯片企业已将 HBM 作为标配,英伟达 H100 芯片搭载 8 颗 HBM2e,AMD MI300 搭载 12 颗 HBM3,某国产 AI 芯片龙头最新产品也计划搭载 6 颗 HBM2e,每颗 AI 芯片对应 HBM 价值量达 500-1500 美元,占芯片总成本的 20%-30%;
需求规模指数级增长:2024 年全球 AI 芯片出货量预计达 150 万颗,对应 HBM 需求约 900 万颗;2026 年 AI 芯片出货量将突破 600 万颗,HBM 需求预计达 4000 万颗,而当前全球年产能仅 2400 万颗,供需缺口持续扩大,推动 HBM 价格上涨,2024 年 HBM2e 产品价格同比上涨 35%,HBM3 产品溢价达 50%。
吴老师需求解读:HBM 的需求增长并非线性提升,而是随 AI 大模型参数规模、训练次数呈指数级增长,这种 “刚性需求 + 供需缺口” 是 “超级周期” 的核心基石,也是资金持续追捧的根本原因 —— 只要 AI 产业持续发展,HBM 的需求就不会减弱,且产能缺口短期内难以填补(HBM 产能建设周期需 18-24 个月)。
技术迭代提升性能、降低成本:HBM 从 1 代(HBM1)迭代至 3 代(HBM3),堆叠层数从 4 层提升至 12 层,带宽从 128GB/s 提升至 1.2TB/s,单位带宽成本下降 60%;2024 年 HBM3e 产品开始量产,带宽突破 1.6TB/s,功耗再降 20%,进一步适配更高算力 AI 芯片的需求;
吴老师解读:日本卫星互联网 “神操作” 引争议,A 股这些机会藏不住了
2025-11-28
股票操盘手吴老师:“卫星互联网真火了?产业资本溢价 600% 跨界 融资客狂买这......
股海智者:吴老师的二十年价值投资修行路
股票操盘手吴老师:美联储降息预期升温,黄金站上 4200 美元!有色龙头 ETF......
A 股风云三十年:十大散户股神的财富传奇与投资智慧