而伴随着AI芯片需求的井喷,HBM芯片的市场空间也在大幅增长,成为了一条黄金赛道。

HBM芯片是什么?

AI芯片须要处理大量并行数据,紧张是英伟达的GPU能爆卖的根本缘故原由。

AI芯片哀求高算力和大带宽,算力越强、每秒处理数据的速率越快,而带宽越大、每秒可访问的数据越多,算力强弱紧张由AI芯片决定,带宽由存储器决定,存力是限定AI芯片性能的瓶颈之一。

AI大年夜战如火如荼HBM芯片原地起飞

HBM(高带宽存储器)是GDDR的一种,定位在处理器片上缓存和传统DRAM之间,兼顾带宽和容量,较其他存储器有高带宽、低功耗、面积小的三大特点。
目前面临的一个问题是,HBM的价格曾一度远超普通DRAM,这使得它在市场中一度陷入尴尬的田地。

而AI浪潮的到来给HBM带来了“福音”,立体堆叠的HBM完美契合大模型的哀求。

在AI场景中,英伟达首先设计完GPU,然后采购海力士的HBM,末了交由台积电利用CoWoS封装技能将GPU和HBM封装到一张电影上,终极交付给AI做事器厂商。

由此可见,在此过程中,GPU、GPU代工商以及HBM生产商之间形成了紧密而稳固的互助关系,彼此之间的联系十分紧密。

HBM供不应求,海力士、三星积极扩产

如今AI领域发展得风起云涌,HBM的市场规模也随之水涨船高。

据悉,当下主流AI演习芯片均利用HBM,一颗GPU配多颗HBM。
个中,英伟达1颗H100配5颗HBM3、容量80GB,H200利用6颗HBM3E(环球首颗利用HBM3E的GPU)、容量达144GB。

3月18日,英伟达发布称,公司的B100和B200利用192GB(8个24GB8层HBM3E),HBM用量进一步提升。

此外,超威半导体(AMD.US)的MI300系列、谷歌的TPU系列均利用HBM。

在详细的市场规模方面,据理解,在AI没有爆发之前,市场预测环球HBM将平稳增长至一个100亿美元的市场。

而根据新的测算,2023年HBM市场规模为40亿美元,估量2024年增长至150亿美元,到2026年增长至靠近250亿美元,年复合增速高达80%以上。

值得把稳的是,于2023年11月,海力士CEO称,估量到2030年,海力士每年HBM出货量将达到1亿颗,隐含产值规模将靠近300亿美元,假设届时海力士市场份额为50%,则全体市场空间将在500亿美元旁边。

在竞争格局方面,HBM的供应由SK海力士、三星电子和美光科技(MU.US)三大厂商垄断,2022年三者的份额分别为50%、40%、10%。

个中,SK海力士是HBM先驱,HBM3环球领先,与英伟达强绑定、是英伟达紧张HBM供应商,三星电子紧随其后,美光科技则正在积极追赶中,HBM3E进度直逼SK海力士。

目前,当下的HBM市场处于供不应求状态。

而三家大厂垄断市场,彼此之间的竞争也比较激烈。
个中,SK海力士和三星电子均操持在2024年将HBM产能提升2倍以上。

其余,SK海力士已在今年3月宣告开始量产8层HBM3E,3月尾开始发货;美光科技则跳过HBM3直接做HBM3E,已于2月尾宣告量产8层HBM3E;三星电子则在今年2月尾发布12层HBM3E。

须要指出的是,近两年芯片领域一片“寒意”,SK海力士、三星电子和美光科技一度遭遇古迹暴降,乃至涌现巨亏的情形,如下图所示。

据美光科技表露了2024财年第二财季(截至2月29日)的古迹显示,在美国公认司帐准则下(GAAP),期内美光科技实现营收58.24亿美元,同比增长57.70%;净利润为7.93亿美元,同比、环比均实现扭亏;摊薄后每股收益为0.71美元;非公认司帐准则净收益为4.76亿美元,摊薄后每股收益0.42美元。

美光科技CEO认为,在AI带来的机遇中,美光是半导体行业最大的受益者之一。

之以是这么说,是由于美光科技于今年2月26日宣告开始量产HBM3E高带宽内存(第五代HBM,是市场针对AI运用的最高规格DRAM产品)。

在第二财季电话会上,美光科技表露,公司新品HBM3E芯片今年的产能已全部卖光,明年的大部分产能也已经被预定。

而HBM3E将供给英伟达(NVDA.US)的AI芯片H200GPU。

美光科技还估量,2024财年,HBM系列产品将为公司带来数亿美元的营收,乃至有望比肩公司第二大业务—NAND业务。

美光科技的情形如此,SK海力士和三星电子也都受益于HBM产品的爆发。

尾语

从目前的情形来看,伴随着AI芯片需求的暴增,HBM产品具有极强的稀缺性,将助力存储芯片大厂迎来古迹回升,干系领域是否存在投资机会值得关注。

本文源自财华网