2

AI“卖铲者”:HBM,新混战!

 7 months ago
source link: https://awtmt.com/articles/3708302
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

AI“卖铲者”:HBM,新混战!

半导体行业观察 发表于 2024年02月12日 01:04
摘要:两家韩国厂商三星和SK海力士正在疯狂扩产、较量技术路线,意图拿到下一代标准的话语权,而美光则试图在技术路线上实现“偷袭”。

对于韩国半导体行业来说,去年有一个好消息和一个坏消息。

坏消息是内存和存储行业进入到了下行周期之中,库存飙升,价格狂跌,韩国半导体厂商也因此蒙受了一次巨大的损失,近几个季度的财报里出现了亏损。

而好消息呢,就是在下行周期中,由于英伟达的AI加速卡带动,HBM异军突起,成为了唯一能逆市大幅增长的内存产品,而且韩国厂商占据了90%的份额,一定程度上弥补了传统内存业务的损失。

为了支持HBM的发展,韩国政府最近还将HBM确定为了国家战略技术,将为HBM供应商如三星电子和SK海力士等提供税收优惠,该决定属于韩国税法修正案执法法令草案的一部分,相比一般研发活动,国家战略技术可享有更高的税收减免:中小型企业可获得最高40%至50%减免,而大型企业可获得30%至40%减免。

2024年的HBM依旧火热,英伟达的H100与200依旧是市面上最抢手的GPU,其对于HBM的需求自然也是水涨船高,对于三星和SK海力士来说,政策支持加上市场发展,继续扩产HBM似乎已经是板上钉钉之事了。

扩产,再扩产

首先是HBM的领头羊——SK海力士。

SK海力士去年第三季度的业绩是所有内存厂商里最亮眼的,而在1月25日,SK海力士也发布了最新的2023年第四季度及2023年全年财报:

第四季营收同比增长47%至11.3055万亿韩元,高于分析师预期的10.4万亿韩元;毛利润为2.23亿韩元,同比大增9404%,毛利润率为20%,为连续第三个季度回升;营业利润为3460亿韩元(约合人民币18.54亿元),好于分析师预期的亏损1699.1亿韩元,营业利润率为3%;净亏损为1.3795万亿韩元(约合人民币73.94亿元),优于分析师预期的亏损0.41万亿韩元,但较前一季度亏损大幅缩窄,净亏损率为12%。EBITDA(税息折旧及摊销前利润)为3.58亿韩元,同比增长99%。

SK海力士在财报中指出,这一业绩的实现主要归功于SK海力士在第四季度AI存储芯片HBM3和大容量移动DRAM等旗舰产品的销售额大幅增长,分别比上年同期增长了4倍和5倍以上,AI服务器和移动应用程序的需求上升,改善了2023年最后一个季度的整体内存市场状况。

HBM作为财报里最亮眼的一笔,SK海力士也在财报中表示,计划在2024年增加资本支出,并将生产重心放在HBM等高端存储产品上,HBM的产能对比去年将增加一倍以上,此前海力士曾预计,到2030年其HBM出货量将达到每年1亿颗,并决定在2024年预留约10万亿韩元(约合76亿美元)的设施资本支出——相较2023年6万亿-7万亿韩元的预计设施投资,增幅高达43%-67%。

扩产的重点是新建和扩建工厂,去年6月有韩媒报道称,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂,预计到今年年末,该厂后段工艺设备规模将增加近一倍。

此外,SK海力士还将在美国印第安纳州建造一座最先进的制造工厂,据两位接受英国《金融时报》采访的消息人士透露,这家韩国芯片制造商将在这家工厂生产HBM堆栈,这些堆栈将用于台积电生产的Nvidia GPU,SK集团董事长表示,该工厂预计耗资220亿美元。

对比之下,三星在HBM上就显得有些被动了,三星电子从去年第四季度开始扩大第四代HBM即HBM3的供应,目前正进入一个过渡期。

1月31日,在第四季度及年度财报电话会议上,三星电子表示预计存储器业务将在今年第一季度恢复正常,三星电子内存业务部门副总裁 Kim Jae-joon表示:“我们计划积极应对与生成式 AI 相关的HBM服务器和SSD需求,重点关注提高盈利能力,预计内存业务将在今年第一季度恢复盈利。”

内存业务恢复盈利的关键在于HBM、服务器内存等高价值产品。值得注意的是,三星去年第四季度HBM销售额同比增长3.5倍,三星电子计划集中其整个半导体部门(包括代工厂和系统 LSI 业务部门)的能力,提供定制 HBM 以满足客户需求。

三星的代表评论道:“HBM 位销售额每个季度都在打破记录。去年第四季度,销售额环比增长超过40%,同比增长超过3.5倍。特别是在第四季度,我们锁定了主要 GPU 制造商作为我们的客户。” 该代表进一步预测,“我们已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。”

负责三星美国半导体业务的执行副总裁Han Jin-man则在今年1月表示,公司对包括 HBM 系列在内的大容量存储芯片寄予厚望,希望它能引领快速增长的人工智能芯片领域,“我们今年的 HBM 芯片产量将是去年的2.5倍,”他在CES 2024的媒体见面会上对记者说,“我们今年的HBM芯片产量将比去年提高2.5倍,明年还将继续提高2倍。”

三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月15万至17万件,以此来争夺2024年的HBM市场。此前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时还计划投资7000亿至1万亿韩元新建封装线。

HBM4争夺战

除了扩产外,它们也在为了下一代HBM标准而勾心斗角。

HBM3e在去年年底就提供了样品,预计将于今年第一季度完成验证和量产,而大家更为关注的显然是HBM4,其堆栈会从现有的12层增加到16层,可能会采用 2048 位内存堆栈连接接口,但目前HBM4标准没有最终确定,两家韩国厂商对此提出了各自不同的路线。

据Business Korea报道,SK海力士正准备为下一代HBM技术采用“2.5D扇出”封装。此举旨在提高性能,降低封装成本。这种技术以前未在内存行业使用,但在先进的半导体制造行业很常见,被认为有可能 "彻底改变半导体和代工行业",SK海力士计划最早于明年公布使用这种封装方法的研究成果。

具体来说,2.5D扇出封装技术是将两个DRAM水平排列,并将它们组装成类似于普通芯片的结构,由于芯片下方没有基板,因此芯片更薄,安装在IT设备中时厚度大大降低,同时,这种技术绕过了硅通孔(TSV)工艺,提供了更多的输入/输出(I/O)选择,降低了成本。

目前的HBM堆栈被放置在GPU旁边,并与芯片相连,而SK海力士的新目标是完全消除中间层,将HBM4直接放在Nvidia和AMD等公司的GPU上,并首选台积电作为代工厂。

根计划,SK海力士最早于2026年量产第六代HBM(HBM4),此外,海力士还在积极研究 “混合键合”技术,该技术很可能应用于HBM4产品。

三星则是反海力士之道而行,研究起了光子技术在HBM技术中间层的应用,目的是解决与热量和晶体管密度相关的挑战。

三星先进封装团队首席工程师在2023年10月举行的OCP全球峰会上分享了他的见解。他表示,目前业界通过两种主要方法在将光子技术与HBM集成方面取得了重大进展,第一种是在底层封装层与包含GPU和HBM的顶层封装层之间放置光子中间件,作为通信层,但这种方法成本高昂,需要为逻辑芯片和 HBM 安装中间层和光子 I/O。

而第二种方法是将 HBM 内存模块从封装中分离出来,利用光子技术将其直接连接到处理器。与处理复杂的封装问题相比,更有效的方法是将 HBM 存储模块与芯片本身分离,并使用光子技术将其连接到逻辑集成电路。这种方法不仅简化了 HBM 和逻辑集成电路的制造和封装成本,而且无需在电路中进行内部数字到光学转换,只是需要注意散热问题。

三星的一位高管博客文章内表示,公司目标是在2025年推出第六代HBM(HBM4),其中包括了针对高温热特性优化的非导电粘合膜(NCF)组装技术和混合键合(HCB)技术,以赢得快速增长的人工智能芯片领域迫切激烈战争的主导权。

可以看到,两家韩厂在下一代HBM标准上已经展开了一场激烈的争夺战。

美光,偷袭?

与上述两家韩厂相比,美光处于一个明显的弱势地位,美光预计2023年其HBM市场份额约为 5%,位居第三。

为了缩小差距,美光对其下一代产品HBM3E下了很大的赌注,美光首席执行官Sanjay Mehrotra表示:“我们正处于为Nvidia下一代AI加速器提供HBM3E的验证的最后阶段。”其计划于2024年初开始大批量发货HBM3E内存,同时强调其新产品受到了整个行业的极大兴趣,这暗示NVIDIA可能不是唯一最终使用美光HBM3E的客户。

具体规格方面,美光的24GB HBM3E模块基于八个堆叠24Gbit内存芯片,采用该公司的1β (1-beta) 制造工艺制造,其数据速率高达9.2GT/秒,每个堆栈的峰值带宽达到1.2TB/s,比现有最快的HBM3模块提高了44%。

而在未来的布局方面,美光披露了暂名为HBM next的下一代HBM内存,其预计HBM Next将提供36GB和64GB容量,能提供多种配置,例如12-Hi 24Gb堆栈 (36GB) 或16-Hi 32Gb堆栈 (64GB) ,此外每个堆栈的带宽为1.5TB/s–2+TB/s,意味着总数据传输速率超过11.5GT/s/pin。

与三星和SK海力士不同,美光并不打算把HBM和逻辑芯片整合到一个芯片中,在下一代HBM发展上,韩系和美系内存厂商泾渭分明,美光可能会告诉AMD、英特尔和英伟达,大家可以通过HBM-GPU这样的组合芯片获得更快的内存访问速度,但是单独依赖某一家的芯片就意味着更大风险。

美国媒体表示,随着机器学习训练模型的增大和训练时间的延长,通过加快内存访问速度和提高每个GPU内存容量来缩短运行时间的压力也将随之增加,而为了获得锁定HBM-GPU组合芯片设计(尽管具有更好的速度和容量)而放弃标准化DRAM的竞争供应优势,可能不是正确的前进方式。

在HBM4这一尚未确定的标准上,美光似乎想来一场“偷袭”。

毋庸置疑的是,HBM是所有内存厂商的机会,只要AI热潮还未褪去,英伟达的GPU尚在热卖,大家就能继续卖利润颇丰的HBM,就能交出成绩还不错的财报。

两家韩国厂商不仅在市场上开始争夺,彼此都在疯狂扩产,在技术路线上也展开了较量,意图拿到下一代标准的话语权,我们或许会看到今年三星和SK海力士在HBM上更多的动作。

而美光在押宝失败后,再度投入重资在HBM之上,与韩厂相比,靠近英伟达的美光有着自身的优势,考虑到此前的技术积累,它也可能会成为韩厂的最大竞争对手。

但就目前来看,90%以上的HBM产能已经被SK海力士和三星包揽,一场韩国内战,已无法避免。

本文来源:半导体行业观察,原标题《HBM,新混战!》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK