3

2024,HBM新混战

 7 months ago
source link: https://www.36kr.com/p/2644803329866888
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

2024,HBM新混战

半导体行业观察·2024-02-12 10:00
对于韩国半导体行业来说,去年有一个好消息和一个坏消息。

坏消息是内存和存储行业进入到了下行周期之中,库存飙升,价格狂跌,韩国半导体厂商也因此蒙受了一次巨大的损失,近几个季度的财报里出现了亏损。

而好消息呢,就是在下行周期中,由于英伟达的AI加速卡带动,HBM异军突起,成为了唯一能逆市大幅增长的内存产品,而且韩国厂商占据了90%的份额,一定程度上弥补了传统内存业务的损失。

为了支持HBM的发展,韩国政府最近还将HBM确定为了国家战略技术,将为HBM供应商如三星电子和SK海力士等提供税收优惠,该决定属于韩国税法修正案执法法令草案的一部分,相比一般研发活动,国家战略技术可享有更高的税收减免:中小型企业可获得最高40%至50%减免,而大型企业可获得30%至40%减免。

2024年的HBM依旧火热,英伟达的H100与200依旧是市面上最抢手的GPU,其对于HBM的需求自然也是水涨船高,对于三星和SK海力士来说,政策支持加上市场发展,继续扩产HBM似乎已经是板上钉钉之事了。

扩产,再扩产

首先是HBM的领头羊——SK海力士。

SK海力士去年第三季度的业绩是所有内存厂商里最亮眼的,而在1月25日,SK海力士也发布了最新的2023年第四季度及2023年全年财报:

第四季营收同比增长47%至11.3055万亿韩元,高于分析师预期的10.4万亿韩元;毛利润为2.23亿韩元,同比大增9404%,毛利润率为20%,为连续第三个季度回升;营业利润为3460亿韩元(约合人民币18.54亿元),好于分析师预期的亏损1699.1亿韩元,营业利润率为3%;净亏损为1.3795万亿韩元(约合人民币73.94亿元),优于分析师预期的亏损0.41万亿韩元,但较前一季度亏损大幅缩窄,净亏损率为12%。EBITDA(税息折旧及摊销前利润)为3.58亿韩元,同比增长99%。

SK海力士在财报中指出,这一业绩的实现主要归功于SK海力士在第四季度AI存储芯片HBM3和大容量移动DRAM等旗舰产品的销售额大幅增长,分别比上年同期增长了4倍和5倍以上,AI服务器和移动应用程序的需求上升,改善了2023年最后一个季度的整体内存市场状况。

HBM作为财报里最亮眼的一笔,SK海力士也在财报中表示,计划在2024年增加资本支出,并将生产重心放在HBM等高端存储产品上,HBM的产能对比去年将增加一倍以上,此前海力士曾预计,到2030年其HBM出货量将达到每年1亿颗,并决定在2024年预留约10万亿韩元(约合76亿美元)的设施资本支出——相较2023年6万亿-7万亿韩元的预计设施投资,增幅高达43%-67%。

扩产的重点是新建和扩建工厂,去年6月有韩媒报道称,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂,预计到今年年末,该厂后段工艺设备规模将增加近一倍。

此外,SK海力士还将在美国印第安纳州建造一座最先进的制造工厂,据两位接受英国《金融时报》采访的消息人士透露,这家韩国芯片制造商将在这家工厂生产 HBM 堆栈,这些堆栈将用于台积电生产的 Nvidia GPU,SK 集团集团董事长表示,该工厂预计耗资 220 亿美元。

对比之下,三星在HBM上就显得有些被动了,三星电子从去年第四季度开始扩大第四代HBM即HBM3的供应,目前正进入一个过渡期。

1月31日,在第四季度及年度财报电话会议上,三星电子表示预计存储器业务将在今年第一季度恢复正常,三星电子内存业务部门副总裁 Kim Jae-joon 表示:“我们计划积极应对与生成式 AI 相关的 HBM 服务器和 SSD 需求,重点关注提高盈利能力,预计内存业务将在今年第一季度恢复盈利。”

内存业务恢复盈利的关键在于HBM、服务器内存等高价值产品。值得注意的是,三星去年第四季度HBM销售额同比增长3.5倍,三星电子计划集中其整个半导体部门(包括代工厂和系统 LSI 业务部门)的能力,提供定制 HBM 以满足客户需求。

三星的代表评论道:“HBM 位销售额每个季度都在打破记录。去年第四季度,销售额环比增长超过40%,同比增长超过3.5倍。特别是在第四季度,我们锁定了主要 GPU 制造商作为我们的客户。” 该代表进一步预测,“我们已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。”

负责三星美国半导体业务的执行副总裁 Han Jin-man 则在今年1月表示,公司对包括 HBM 系列在内的大容量存储芯片寄予厚望,希望它能引领快速增长的人工智能芯片领域,“我们今年的 HBM 芯片产量将是去年的 2.5 倍,”他在CES 2024的媒体见面会上对记者说,“我们今年的 HBM 芯片产量将比去年提高 2.5 倍,明年还将继续提高 2 倍。”

三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月 15 万至 17 万件,以此来争夺2024年的HBM市场。此前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时还计划投资7000亿至1万亿韩元新建封装线。

HBM4争夺战

除了扩产外,它们也在为了下一代HBM标准而勾心斗角。

HBM3e在去年年底就提供了样品,预计将于今年第一季度完成验证和量产,而大家更为关注的显然是HBM4,其堆栈会从现有的12层增加到16层,可能会采用 2048 位内存堆栈连接接口,但目前HBM4标准没有最终确定,两家韩国厂商对此提出了各自不同的路线。

据 Business Korea 报道,SK海力士正准备为下一代 HBM 技术采用 "2.5D 扇出 "封装。此举旨在提高性能,降低封装成本。这种技术以前未在内存行业使用,但在先进的半导体制造行业很常见,被认为有可能 "彻底改变半导体和代工行业",SK 海力士计划最早于明年公布使用这种封装方法的研究成果。

具体来说,2.5D 扇出封装技术是将两个DRAM水平排列,并将它们组装成类似于普通芯片的结构,由于芯片下方没有基板,因此芯片更薄,安装在 IT 设备中时厚度大大降低,同时,这种技术绕过了硅通孔(TSV)工艺,提供了更多的输入/输出(I/O)选择,降低了成本。

目前的HBM堆栈被放置在GPU旁边,并与芯片相连,而 SK海力士的新目标是完全消除中间层,将 HBM4 直接放在 Nvidia 和 AMD 等公司的 GPU 上,并首选台积电作为代工厂。

根计划,SK 海力士最早于 2026 年量产第六代 HBM(HBM4),此外,海力士还在积极研究 "混合键合 "技术,该技术很可能应用于 HBM4 产品。

三星则是反海力士之道而行,研究起了光子技术在 HBM 技术中间层的应用,目的是解决与热量和晶体管密度相关的挑战。

三星先进封装团队首席工程师在 2023 年 10 月举行的 OCP 全球峰会上分享了他的见解。他表示,目前业界通过两种主要方法在将光子技术与 HBM 集成方面取得了重大进展,第一种是在底层封装层与包含 GPU 和 HBM 的顶层封装层之间放置光子中间件,作为通信层,但这种方法成本高昂,需要为逻辑芯片和 HBM 安装中间层和光子 I/O。

而第二种方法是将 HBM 内存模块从封装中分离出来,利用光子技术将其直接连接到处理器。与处理复杂的封装问题相比,更有效的方法是将 HBM 存储模块与芯片本身分离,并使用光子技术将其连接到逻辑集成电路。这种方法不仅简化了 HBM 和逻辑集成电路的制造和封装成本,而且无需在电路中进行内部数字到光学转换,只是需要注意散热问题。

三星的一位高管博客文章内表示,公司目标是在2025年推出第六代HBM(HBM4),其中包括了针对高温热特性优化的非导电粘合膜(NCF)组装技术和混合键合(HCB)技术,以赢得快速增长的人工智能芯片领域迫切激烈战争的主导权。

可以看到,两家韩厂在下一代HBM标准上已经展开了一场激烈的争夺战。

美光,偷袭?

与上述两家韩厂相比,美光处于一个明显的弱势地位,美光预计 2023 年其HBM市场份额约为 5%,位居第三。

为了缩小差距,美光对其下一代产品 HBM3E 下了很大的赌注,美光首席执行官 Sanjay Mehrotra 表示:“我们正处于为 Nvidia 下一代 AI 加速器提供 HBM3E 的验证的最后阶段。”其计划于 2024 年初开始大批量发货 HBM3E 内存,同时强调其新产品受到了整个行业的极大兴趣,这暗示 NVIDIA 可能不是唯一最终使用美光 HBM3E 的客户。

具体规格方面,美光的 24 GB HBM3E 模块基于八个堆叠 24Gbit 内存芯片,采用该公司的 1β (1-beta) 制造工艺制造,其数据速率高达 9.2 GT/秒,每个堆栈的峰值带宽达到 1.2 TB/s,比现有最快的 HBM3 模块提高了 44%。

而在未来的布局方面,美光披露了暂名为HBM next的下一代 HBM 内存,其预计HBM Next 将提供 36 GB 和 64 GB 容量,能提供多种配置,例如 12-Hi 24 Gb 堆栈 (36 GB) 或 16-Hi 32 Gb 堆栈 (64 GB) ,此外每个堆栈的带宽为 1.5 TB/s – 2+ TB/s,意味着总数据传输速率超过 11.5 GT/s/pin。

与三星和 SK海力士不同,美光并不打算把 HBM 和逻辑芯片整合到一个芯片中,在下一代HBM发展上,韩系和美系内存厂商泾渭分明,美光可能会告诉AMD、英特尔和英伟达,大家可以通过 HBM-GPU 这样的组合芯片获得更快的内存访问速度,但是单独依赖某一家的芯片就意味着更大风险。

美国媒体表示,随着机器学习训练模型的增大和训练时间的延长,通过加快内存访问速度和提高每个 GPU 内存容量来缩短运行时间的压力也将随之增加,而为了获得锁定的 HBM-GPU 组合芯片设计(尽管具有更好的速度和容量)而放弃标准化 DRAM 的竞争供应优势,可能不是正确的前进方式。

在HBM 4这一尚未确定的标准上,美光似乎想来一场“偷袭”。

写在最后

毋庸置疑的是,HBM是所有内存厂商的机会,只要AI热潮还未褪去,英伟达的GPU尚在热卖,大家就能继续卖利润颇丰的HBM,就能交出成绩还不错的财报。

两家韩国厂商不仅在市场上开始争夺,彼此都在疯狂扩产,在技术路线上也展开了较量,意图拿到下一代标准的话语权,我们或许会看到今年三星和SK海力士在HBM上更多的动作。

而美光在押宝失败后,再度投入重资在HBM之上,与韩厂相比,靠近英伟达的美光有着自身的优势,考虑到此前的技术积累,它也可能会成为韩厂的最大竞争对手。

但就目前来看,90%以上的HBM产能已经被SK海力士和三星包揽,一场韩国内战,已无法避免。

本文来自微信公众号“半导体行业观察”(ID:icbank),原文标题为“HBM,新混战!”作者:邵逸琦,36氪经授权发布。

该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK