英伟达发布新 “核弹”,谷歌聊天机器人也来了,算力股再度上演涨停潮

Wallstreetcn
2023.03.22 03:57
portai
I'm PortAI, I can summarize articles.

安信证券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌 Bird 等相继发布,以 ChatGPT 为代表的 AI 大模型及其初步应用 “一石激起千层浪”,类比 19 世纪末的美国西部 “淘金热” 对铲子、牛仔裤的大量需求,以 GPGPU 为代表的算力基础设施作为 AI 大模型底座将长期稳定受益。

3 月 22 日,算力股(数据中心、AI 芯片、CPO 等)再次大幅走强。

消息面上,隔夜英伟达发布了 ChatGPT 专用 GPU,号称将推理速度提升了 10 倍。

另外近几日,因访问量大增,ChatGPT 全球各地的用户纷纷发现网站弹出报错警告,即使是有特权的 Plus 账户也未能幸免。

安信证券最新研报对 GPT-4 算力需求做了推论:GPT-4 由于复杂度提升、图片识别功能加入,其推测算力需求增至十倍以上。

英伟达发布 ChatGPT 专用 GPU,推理速度提升 10 倍

据澎湃新闻新闻报道,北京时间 3 月 21 日,英伟达 CEO 黄仁勋在 2023 年 GTC 开发者大会上宣布了专为 ChatGPT 设计的推理 GPU(图形处理器)H100 NVL,它将英伟达的两个 H100 GPU 拼接在一起,以部署像 ChatGPT 这样的大型语言模型(LLM)。

黄仁勋表示,当前唯一可以实际处理 ChatGPT 的 GPU 是英伟达 HGX A100,与前者 A100 相比,现在一台搭载四对 H100 和双 NVLINK 的标准服务器速度能快 10 倍,可以将大语言模型的处理成本降低一个数量级。

除定制芯片外,英伟达还发布了突破性的光刻计算库 cuLitho,英伟达宣布,经过与台积电、ASML、新思科技等公司多年的合作,推出全新的计算光刻应用,大大降低芯片代工厂在这一工序上所消耗的时间和能耗,为 2nm 以及更先进制程的到来做好准备。

此外,英伟达还发布了 AI 超级计算服务 DGX Cloud、加速企业创建大模型和生成式 AI 的云服务 NVIDIA AI Foundations 等,以及与 Quantum Machines 合作推出了全球首个 GPU 加速量子计算系统。

黄仁勋表示,眼下整个 AI 产业正处于 “iPhone 时刻”——创业公司正在竞相建立颠覆式的商业模型,而业界巨头也在寻找应对之道,更是放出豪言——英伟达就是要做 AI 圈的台积电!

国内方面,黄仁勋表示,在中国,其有特别定制的 Ampere 和 Hopper 芯片,这些会通过中国云提供商,比如阿里巴巴、腾讯、百度这些企业提供落地的能力,完全相信他们有能力去提供顶级的系统服务,对于中国初创公司一定会有机会来开发自己的大语言模型。

谷歌聊天机器人也来了,AI大模型引领算力层长期受益

当地时间 3 月 21 日周二,美国科技巨头谷歌公司推出了 AI 聊天机器人Bard 的测试版本,以期与 OpenAI 的 ChatGPT 展开竞争。

Bard 将与其谷歌搜索引擎分开运行,目前仅以英语生成答案,目前以先到先得的方式向候补名单的用户提供访问权限。谷歌称随着时间的推移,Bard 将适配更多的语言以及推广到更多的地区。

安信证券指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言、谷歌 Bird 等相继发布,以 ChatGPT 为代表的 AI 大模型及其初步应用 “一石激起千层浪”.

其表示,随着多模态大模型 GPT-4 的发布,基于文字、图片等垂直场景的应用步伐有望 “从 1 到 10” 加速,类似于移动互联网时代各类型 APP 的百花齐放,其竞争格局也会逐步加剧。而类比 19 世纪末的美国西部 “淘金热” 对铲子、牛仔裤的大量需求,其认为以 GPGPU 为代表的算力基础设施作为AI大模型底座将长期稳定受益

GPT4 算力需求增至十倍以上

安信证券最新研报对 GPT-4 算力需求及未来趋势做了推论:GPT-4 由于复杂度提升、图片识别功能加入,其推测算力需求增至十倍以上。

其表示,OpenAI 首席执行官 Sam Altman 接受公开采访指出,GTP-4 参数量为 GTP-3 的 20 倍,需要的计算量为 GTP-3 的 10 倍;GTP-5 在 2024 年底至 2025 年发布,它的参数量为 GTP-3 的 100 倍,需要的计算量为 GTP-3 的 200-400 倍。

算力的瓶颈并不体现在算力的绝对大小,而在于实现该算力的成本,从成本的角度,国信证券也对此作了测算,其根据根据 GPT-4 的公开数据,8K 的上下文长度下,每 1000 个 token 的提问成本为 0.03 美金,每 1000 个 token 的回答完成成本为 0.06 美金;32K 的上下文长度下,每 1000 个 token 的提问成本为 0.06 美金,每 1000 个 token 的回答完成成本为 0.12 美金。

其表示,这个算力成本相比与 GPT-3 的成本(每 1000 个 tokens 的算力成本约为 0.02 美金)上升了较高(输入成本增加 50%-200%,输出升本增加 200%-500%),相比于 GPT-3.5-turbo 的成本上升更为可观,输入成本增长了 14-29 倍,输出成本增长了 29-59 倍。

此外,AI 服务器市场的扩容,同步带动高速网卡、HBMDRAMNANDPCB等需求提升。同时围绕解决大算力场景下 GPU“功耗墙、内存墙” 问题的相关技术不断升级,如存算一体、硅光/CPO产业化进程有望提速;先进制程芯片演进中已有的 Chiplet 等技术路径也将受益;Risk-V 由于开源免费、开发者自由度高、自主可控度高、更适应 AIoT 处理器架构需求等优势,带动围绕 AI 场景的参与企业数量提升。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。