AI“卖铲者”:HBM,新混战!

Wallstreetcn
2024.02.12 01:20
portai
I'm PortAI, I can summarize articles.

韩国半导体行业在下行周期中遭受损失,但由于英伟达的 AI 加速卡带动,HBM 异军突起成为唯一能逆市增长的内存产品。为支持 HBM 发展,韩国政府将其确定为国家战略技术,并提供税收优惠。三星和 SK 海力士是 HBM 的主要供应商,预计将继续扩产。SK 海力士在 2023 年第四季度有亮眼表现,营收同比增长 47%。

对于韩国半导体行业来说,去年有一个好消息和一个坏消息。

坏消息是内存和存储行业进入到了下行周期之中,库存飙升,价格狂跌,韩国半导体厂商也因此蒙受了一次巨大的损失,近几个季度的财报里出现了亏损。

而好消息呢,就是在下行周期中,由于英伟达的 AI 加速卡带动,HBM 异军突起,成为了唯一能逆市大幅增长的内存产品,而且韩国厂商占据了 90% 的份额,一定程度上弥补了传统内存业务的损失。

为了支持 HBM 的发展,韩国政府最近还将 HBM 确定为了国家战略技术,将为 HBM 供应商如三星电子和 SK 海力士等提供税收优惠,该决定属于韩国税法修正案执法法令草案的一部分,相比一般研发活动,国家战略技术可享有更高的税收减免:中小型企业可获得最高 40% 至 50% 减免,而大型企业可获得 30% 至 40% 减免。

2024 年的 HBM 依旧火热,英伟达的 H100 与 200 依旧是市面上最抢手的 GPU,其对于 HBM 的需求自然也是水涨船高,对于三星和 SK 海力士来说,政策支持加上市场发展,继续扩产 HBM 似乎已经是板上钉钉之事了。

扩产,再扩产

首先是 HBM 的领头羊——SK 海力士。

SK 海力士去年第三季度的业绩是所有内存厂商里最亮眼的,而在 1 月 25 日,SK 海力士也发布了最新的 2023 年第四季度及 2023 年全年财报:

第四季营收同比增长 47% 至 11.3055 万亿韩元,高于分析师预期的 10.4 万亿韩元;毛利润为 2.23 亿韩元,同比大增 9404%,毛利润率为 20%,为连续第三个季度回升;营业利润为 3460 亿韩元(约合人民币 18.54 亿元),好于分析师预期的亏损 1699.1 亿韩元,营业利润率为 3%;净亏损为 1.3795 万亿韩元(约合人民币 73.94 亿元),优于分析师预期的亏损 0.41 万亿韩元,但较前一季度亏损大幅缩窄,净亏损率为 12%。EBITDA(税息折旧及摊销前利润)为 3.58 亿韩元,同比增长 99%。

SK 海力士在财报中指出,这一业绩的实现主要归功于 SK 海力士在第四季度 AI 存储芯片 HBM3 和大容量移动 DRAM 等旗舰产品的销售额大幅增长,分别比上年同期增长了 4 倍和 5 倍以上,AI 服务器和移动应用程序的需求上升,改善了 2023 年最后一个季度的整体内存市场状况。

HBM 作为财报里最亮眼的一笔,SK 海力士也在财报中表示,计划在 2024 年增加资本支出,并将生产重心放在 HBM 等高端存储产品上,HBM 的产能对比去年将增加一倍以上,此前海力士曾预计,到 2030 年其 HBM 出货量将达到每年 1 亿颗,并决定在 2024 年预留约 10 万亿韩元(约合 76 亿美元)的设施资本支出——相较 2023 年 6 万亿-7 万亿韩元的预计设施投资,增幅高达 43%-67%。

扩产的重点是新建和扩建工厂,去年 6 月有韩媒报道称,SK 海力士正在准备投资后段工艺设备,将扩建封装 HBM3 的利川工厂,预计到今年年末,该厂后段工艺设备规模将增加近一倍。

此外,SK 海力士还将在美国印第安纳州建造一座最先进的制造工厂,据两位接受英国《金融时报》采访的消息人士透露,这家韩国芯片制造商将在这家工厂生产 HBM 堆栈,这些堆栈将用于台积电生产的 Nvidia GPU,SK 集团董事长表示,该工厂预计耗资 220 亿美元。

对比之下,三星在 HBM 上就显得有些被动了,三星电子从去年第四季度开始扩大第四代 HBM 即 HBM3 的供应,目前正进入一个过渡期。

1 月 31 日,在第四季度及年度财报电话会议上,三星电子表示预计存储器业务将在今年第一季度恢复正常,三星电子内存业务部门副总裁 Kim Jae-joon 表示:“我们计划积极应对与生成式 AI 相关的 HBM 服务器和 SSD 需求,重点关注提高盈利能力,预计内存业务将在今年第一季度恢复盈利。”

内存业务恢复盈利的关键在于 HBM、服务器内存等高价值产品。值得注意的是,三星去年第四季度 HBM 销售额同比增长 3.5 倍,三星电子计划集中其整个半导体部门(包括代工厂和系统 LSI 业务部门)的能力,提供定制 HBM 以满足客户需求。

三星的代表评论道:“HBM 位销售额每个季度都在打破记录。去年第四季度,销售额环比增长超过 40%,同比增长超过 3.5 倍。特别是在第四季度,我们锁定了主要 GPU 制造商作为我们的客户。” 该代表进一步预测,“我们已经向客户提供了下一代 HBM3E 的 8 层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到 90% 左右。”

负责三星美国半导体业务的执行副总裁 Han Jin-man 则在今年 1 月表示,公司对包括 HBM 系列在内的大容量存储芯片寄予厚望,希望它能引领快速增长的人工智能芯片领域,“我们今年的 HBM 芯片产量将是去年的 2.5 倍,” 他在 CES 2024 的媒体见面会上对记者说,“我们今年的 HBM 芯片产量将比去年提高 2.5 倍,明年还将继续提高 2 倍。”

三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月 15 万至 17 万件,以此来争夺 2024 年的 HBM 市场。此前三星电子斥资 105 亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大 HBM 产能,同时还计划投资 7000 亿至 1 万亿韩元新建封装线。

HBM4 争夺战

除了扩产外,它们也在为了下一代 HBM 标准而勾心斗角。

HBM3e 在去年年底就提供了样品,预计将于今年第一季度完成验证和量产,而大家更为关注的显然是 HBM4,其堆栈会从现有的 12 层增加到 16 层,可能会采用 2048 位内存堆栈连接接口,但目前 HBM4 标准没有最终确定,两家韩国厂商对此提出了各自不同的路线。

据 Business Korea 报道,SK 海力士正准备为下一代 HBM 技术采用 “2.5D 扇出” 封装。此举旨在提高性能,降低封装成本。这种技术以前未在内存行业使用,但在先进的半导体制造行业很常见,被认为有可能 "彻底改变半导体和代工行业",SK 海力士计划最早于明年公布使用这种封装方法的研究成果。

具体来说,2.5D 扇出封装技术是将两个 DRAM 水平排列,并将它们组装成类似于普通芯片的结构,由于芯片下方没有基板,因此芯片更薄,安装在 IT 设备中时厚度大大降低,同时,这种技术绕过了硅通孔(TSV)工艺,提供了更多的输入/输出(I/O)选择,降低了成本。

目前的 HBM 堆栈被放置在 GPU 旁边,并与芯片相连,而 SK 海力士的新目标是完全消除中间层,将 HBM4 直接放在 Nvidia 和 AMD 等公司的 GPU 上,并首选台积电作为代工厂。

根计划,SK 海力士最早于 2026 年量产第六代 HBM(HBM4),此外,海力士还在积极研究 “混合键合” 技术,该技术很可能应用于 HBM4 产品。

三星则是反海力士之道而行,研究起了光子技术在 HBM 技术中间层的应用,目的是解决与热量和晶体管密度相关的挑战。

三星先进封装团队首席工程师在 2023 年 10 月举行的 OCP 全球峰会上分享了他的见解。他表示,目前业界通过两种主要方法在将光子技术与 HBM 集成方面取得了重大进展,第一种是在底层封装层与包含 GPU 和 HBM 的顶层封装层之间放置光子中间件,作为通信层,但这种方法成本高昂,需要为逻辑芯片和 HBM 安装中间层和光子 I/O。

而第二种方法是将 HBM 内存模块从封装中分离出来,利用光子技术将其直接连接到处理器。与处理复杂的封装问题相比,更有效的方法是将 HBM 存储模块与芯片本身分离,并使用光子技术将其连接到逻辑集成电路。这种方法不仅简化了 HBM 和逻辑集成电路的制造和封装成本,而且无需在电路中进行内部数字到光学转换,只是需要注意散热问题。

三星的一位高管博客文章内表示,公司目标是在 2025 年推出第六代 HBM(HBM4),其中包括了针对高温热特性优化的非导电粘合膜(NCF)组装技术和混合键合(HCB)技术,以赢得快速增长的人工智能芯片领域迫切激烈战争的主导权。

可以看到,两家韩厂在下一代 HBM 标准上已经展开了一场激烈的争夺战。

美光,偷袭?

与上述两家韩厂相比,美光处于一个明显的弱势地位,美光预计 2023 年其 HBM 市场份额约为 5%,位居第三。

为了缩小差距,美光对其下一代产品 HBM3E 下了很大的赌注,美光首席执行官 Sanjay Mehrotra 表示:“我们正处于为 Nvidia 下一代 AI 加速器提供 HBM3E 的验证的最后阶段。” 其计划于 2024 年初开始大批量发货 HBM3E 内存,同时强调其新产品受到了整个行业的极大兴趣,这暗示NVIDIA 可能不是唯一最终使用美光 HBM3E 的客户。

具体规格方面,美光的 24GB HBM3E 模块基于八个堆叠 24Gbit 内存芯片,采用该公司的 1β (1-beta) 制造工艺制造,其数据速率高达 9.2GT/秒,每个堆栈的峰值带宽达到 1.2TB/s,比现有最快的 HBM3 模块提高了 44%。

而在未来的布局方面,美光披露了暂名为 HBM next 的下一代 HBM 内存,其预计 HBM Next 将提供 36GB 和 64GB 容量,能提供多种配置,例如 12-Hi 24Gb 堆栈 (36GB) 或 16-Hi 32Gb 堆栈 (64GB) ,此外每个堆栈的带宽为 1.5TB/s–2+TB/s,意味着总数据传输速率超过 11.5GT/s/pin。

与三星和 SK 海力士不同,美光并不打算把 HBM 和逻辑芯片整合到一个芯片中,在下一代 HBM 发展上,韩系和美系内存厂商泾渭分明,美光可能会告诉 AMD、英特尔和英伟达,大家可以通过 HBM-GPU 这样的组合芯片获得更快的内存访问速度,但是单独依赖某一家的芯片就意味着更大风险。

美国媒体表示,随着机器学习训练模型的增大和训练时间的延长,通过加快内存访问速度和提高每个 GPU 内存容量来缩短运行时间的压力也将随之增加,而为了获得锁定 HBM-GPU 组合芯片设计(尽管具有更好的速度和容量)而放弃标准化 DRAM 的竞争供应优势,可能不是正确的前进方式。

在 HBM 4 这一尚未确定的标准上,美光似乎想来一场 “偷袭”。

写在最后

毋庸置疑的是,HBM 是所有内存厂商的机会,只要 AI 热潮还未褪去,英伟达的 GPU 尚在热卖,大家就能继续卖利润颇丰的 HBM,就能交出成绩还不错的财报。

两家韩国厂商不仅在市场上开始争夺,彼此都在疯狂扩产,在技术路线上也展开了较量,意图拿到下一代标准的话语权,我们或许会看到今年三星和 SK 海力士在 HBM 上更多的动作。

而美光在押宝失败后,再度投入重资在 HBM 之上,与韩厂相比,靠近英伟达的美光有着自身的优势,考虑到此前的技术积累,它也可能会成为韩厂的最大竞争对手。

但就目前来看,90% 以上的 HBM 产能已经被 SK 海力士和三星包揽,一场韩国内战,已无法避免。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。