1、英伟达发布超强 AI 计算平台,大模型训练不仅速度快还更省钱; 2、英伟达提供全新 AI 游戏模型服务,行业将开始新一轮创新式洗牌; 3、全自研国产安全数据库来了,拓尔思发布海贝搜索数据库,专用需求强。
今日要闻
1、英伟达发布超强 AI 计算平台,大模型训练不仅速度快还更省钱;
2、英伟达提供全新 AI 游戏模型服务,行业将开始新一轮创新式洗牌;
3、全自研国产安全数据库来了,拓尔思发布海贝搜索数据库,专用需求特征强;
海外 AI
1、英伟达超强 AI 计算平台面世,内存提高 500 倍、不但传输速度高,而且还节能 5 倍
Nvidia 发布史上最强人工智能超级计算平台 DGX GH200 和 MGX 系统的核心组件,专门为处理海量的生成型人工智能任务而设计。并且表示 Grace Hopper 超级芯片已经全面投产。云服务客户也可以通过 DGX Cloud 部署 AI 系统以及使用 AI Foundations。
此外,Nvidia 正在构建自己的 Helios 超级计算机,该款超级计算机将包括四个 DGX GH200 系统,所有系统都与 Nvidia 的 Quantum-2 InfiniBand 互连,预计会在今年年底上线。
见智研究认为:英伟达推出生成型人工智能任务的 DGX GH200 超级计算平台对于大模型训练以及超级计算能力来说,又上升到一个新的高度。当然,Grace Hopper 超级芯片并不属于消费类的 PC 芯片、而主要适用于企业级大规模人工智能的研发。
对于应用侧来说,龙头企业必然会陆续应用该款计算平台,包括谷歌云、Meta 和微软用于生成式 AI 工作负载上。软银也表示,将使用 Grace Hopper 超级芯片用于生成人工智能和 5G/6G 技术,为软银的下一代数据中心提供动力。
对于产业链来说,该计算平台的应用会加大对通信传输领域的采购需求,比如光纤、高速光模块等。服务器对于光模块业需求的影响可参见此前文章:光模块需求为何反转。
DGX GH200 有多厉害?
从单个 DGX GH200 系统来看,通过 256 台 NVLink 交换机将 36 个 Grace-Hopper 超级芯片连接起来,内存比单个 Nvidia DGX A100 系统多近 500 倍,能提供强大计算能力,为用户提供了可扩展的更大规模数据吞吐量,使其非常适合推进复杂语言模型的训练。
特别值得关注的是,该款芯片取消了传统的 Pcle 链接方式,而是采用了一种更高速的连接方式——NVLink-C2C。使得处理器和显卡之间的带宽显着提高 7 倍,并且节省能耗高达 5 倍之多。
2、英伟达首发生成式 AI 游戏模型服务,行业将开始新一轮创新式洗牌
英伟达宣布开始提供定制 AI 模型代工服务——Avatar Cloud Engine (ACE) for Games,可开发在云端和 PC 上运行的 AI 模型。开发者可以使用该服务在其软件和游戏中搭建和部署定制化的语音、对话和动画 AI 模型。该服务通过 AI 驱动的自然语言交互为非玩家角色(NPC)带来智能,从而直接改变游戏行业曾经的创作模式。
见智研究认为:
一方面,云端开发能够很大程度帮助企业节省固定成本,包括本地化部署的设备采购、系统扩容等支出,在云端开发能够按照需求进行扩容,拥有更大的灵活性和可扩展的弹性。仍值得注意的是,云端开发也并非在所有情况下都比本地开发更加经济,还需要根据定制化程度来评估。
另一方面,AI 模型这种具备生成式创作能力的模型能够从底层改变游戏角色设计、与人交互的方式。对于游戏开发领域来说是翻天覆地的变化,降本增效已经是行业所默认的,更重要的是内容生成的方式打破了行业现有的途径。
此外,游戏行业今年迎来版号发放高峰,今年 5 月份国产网络游戏共有 86 款获批,截至目前年内累计发放 433 款游戏版号,接近 2022 年全年总数。在 AI 模型的创新性带领下, 游戏制作会迎来新一轮小高潮。
国内 AI
全自研国产安全数据库来了
拓尔思发布海贝搜索数据库 V10。海贝搜索数据库是目前国内唯一一款从底层分词算法,到核心引擎以及上层系统都完全自研的纯国产搜索引擎数据库;系统已完成与龙芯、海光、飞腾、鲲鹏等国产芯片以及中标麒麟、统信 UOS 等国产操作系统的适配工作。
此前,国内厂商基本上都以开源的 ElasticSearch 作为他们的搜索引擎数据库;还有一小部分厂商在开源 Lucene 引擎的基础上进行封装。
见智研究认为:海贝作为全自研数据库,具有更高等级安全性、兼容性以及高性能检索的特征,不仅能够做到全字段索引,支持任意维度的组合查询,在数据查询和分析的效率上高于其他的大数据管理系统;同时还可以实现冷热数据自动分区,支持多种存储混合使用。
在应用层面来看,特别是对于专用性强、安全性高的领域,比如:银行、政务、军工等表现出非常强的竞争力。