就在众多科技巨头在 AI 软件斗得如火如荼之际,AI 芯片却几乎被英伟达完全掌控。英伟达 A100 已经成为 AI 界的主力芯片,虽然价格高达 1 万美元一块,但市场前景依然广阔。如今,在未来有望取代 A100 的 H100 也已经开始量产。
就在微软、谷歌等科技巨头着眼于发展 AI 软件时,英伟达则将目标瞄准了其擅长的芯片领域。许多 AI 软件都离不开这款专门为人工智能竞赛而准备的、价值一万美元的芯片:英伟达 A100。
A100 目前已成为人工智能专业人士使用的 “主力芯片”。根据 New Street Research 的数据,英伟达占据了可用于机器学习的图形处理器市场的 95%。
A100 非常适合支持 ChatGPT、Bing AI 或 Stable Diffusion 等工具的机器学习模型,它能够同时执行许多简单的计算,这对于训练和使用神经网络模型非常重要。
A100 背后的技术最初用于在游戏中渲染复杂的 3D 图形,它通常被称为图形处理器(GPU),但如今 A100 配置和目标是机器学习任务,并在数据中心运行,而不是在个人电脑中运行。
AI 大潮来临之际,初创公司争抢 A100
开发聊天机器人和图像生成器等软件的大公司或初创公司需要数百或数千个这样的英伟达芯片来训练人工智能模型,例如大型语言模型。这些芯片需要足够强大以快速处理大量的数据以识别语言模式。之后,还需要像 A100 这样的 GPU 进行 “推理”,或使用模型生成文本、进行预测或识别照片中的对象。
这意味着 AI 公司需要获得大量 A100 芯片。在 AI 领域,一些企业家甚至将他们获得的 A100 数量视为是否抢得先机的标志。
美国人工智能初创公司、参与开发 Stable Diffusion 的 Stability AI 首席执行官 Emad Mostaque 在社交媒体上称:
一年前,我们有 32 个 A100。但我们梦想远大,继续买 GPU 吧!
当前,Stability AI 的估值已经超过 10 亿美元。根据 State of AI 的一项估计,Stability AI 现在可以使用的 A100 已经超过 5400 个。
市场认为,英伟达将从本轮市场对 AI 产业的炒作中受益。在周三公布的第四财季业绩中,尽管整体营收大幅下降了 21%,但该公司股价在周四依然上涨约 14%,这主要是因为该公司数据中心业务(很大程度上和 AI 芯片业务重叠)的收入在报告期内增长了 11% 至超过 36 亿美元,而且公司预计该业务收入在本季度将持续增长。
搭着 AI 的便车,今年依赖,英伟达股价已经大幅上涨了 65%,不仅跑赢大盘,也跑赢其他半导体股票。
英伟达首席执行官黄仁勋周三在分析师电话会上不断强调 AI 对公司的重要性:
围绕我们构建 AI 基础设施的活动,在过去 60 天里刚刚开始爆发。毫无疑问,无论我们如何预测今年的情况,但相当大的变化已经开始了。
A100 市场潜力巨大,英伟达独占先机
对 AI 公司来说,一块 A100 是难以支撑起他们的 AI 梦想的。许多数据中心使用一个包含八个 A100 的协同工作系统。该系统是英伟达的 DGX A100,建议售价接近 20 万美元。周三,英伟达宣布将直接出售对 DGX 系统的云访问权限,这可能会降低 AI 行业的入门成本。
New Street Research 的一项估计认为,Bing 搜索和 ChatGPT 的模型可能需要 8 个 A100 GPU 才能在不到一秒的时间内响应用户问题。
按照这个速度,微软将需要超过 2 万个 DGX 系统,这意味着微软在 AI 基础设施建设上的支出就可能高达 40 亿美元的基础设施支出。如果谷歌想实现同样的 AI 转型,那么将在 DGX 上花费 800 亿美元。
New Street Research 的技术分析师 Antoine Chakaivan 认为:
事实是,每个使用如此庞大的语言模型的用户在使用它时,背后其实都有一台大型超级计算机。
英伟达首席执行官黄仁勋表示,就这类模型所需的计算量而言,该公司的产品实际上并不昂贵。他还表示,英伟达将允许初创公司以比使用传统计算机处理器低得多的成本训练模型。
在 AI 硬件领域,英伟达并非唯一一家生产 AI GPU 的公司,英特尔也有类似的产品,谷歌、亚马逊等公司也在准备开发这样的芯片。不过,当前在 AI 芯片市场,英伟达仍是一家独大。
当前,英伟达已经开始开始量产下一代 AI 芯片 H100。A100 在 2020 年推出,H100 则在 2022 年开始量产,当然,价格也高于 A100。
英伟达表示,H100 是其第一款针对变压器进行优化的数据中心 GPU,这是许多最新和顶级人工智能应用程序使用的一项越来越重要的技术。