算力成本居高不下,日均烧掉 10 万美元,AI 实验室寻求大厂支持。
去年,ChatGPT 的横空出世让普通消费者窥见了 AI 的无限潜能,也让其背后的公司 Open AI 估值暴涨。据媒体报道,1 月 23 日,微软宣布对 Open AI 追加第三轮投资,数额或高达一百亿美元。
不过,尽管已晋级为估值 290 亿美元的超级独角兽,但 Open AI 还没赚到过钱。ChatGPT 和旗下其他 AIGC 产品都处于免费公测阶段,目前仅有卖 AI 软件赚的千万美元蚊子腿营收。
但居高不下的运营成本,正让 Open AI 苦恼。ChatGPT 上线仅 5 天,用户数量就已突破百万。更多用户意味着更高的服务器带宽成本,Open AI 需要钱,也需要算力。
微软云服务 Azure 此前已成为 Open AI 的独家供应商,为其提供了多项优惠待遇。而微软为了在 AI 领域和 Google、Meta 等对手竞争,也正需要 Open AI 的技术。
运营一个 AI 服务有多贵
此前,OpenAI 联合创始人兼 CEO Sam Altman 曾在推特上表示,ChatGPT 的运营费用高得 “令人瞠目结舌”。在用户抛出问题之后,ChatGPT 回应的每一个字,花的都是真金白银。
ChatGPT 是托管在微软云服务 Azure 上。据媒体分析,目前,微软对单个 100 GPU 的收费是每小时 3 美元,按照 ChatGPT 加载模型和文本的速度,生成一个单词的费用约为 0.0003 美元;而 ChatGPT 的回复通常至少有 30 个单词,因此,ChatGPT 每回复一次,至少花 Open AI 1 美分。
而摩根士丹利的分析甚至认为,ChatGPT 的一次回复可能会花掉 Open AI 2 美分,大约是谷歌搜索查询平均成本的七倍。尤其考虑到 ChatGPT 面向全球大众用户,用的人越多,带宽消耗越大,服务器成本只会更高。每天至少要烧掉 10 万美元。
而且,打造这样一个系统也极为昂贵。ChatGPT 的界面只有一个聊天框,问答互动的形式看起来也非常简单。但实际上,一个训练有素的 AI 模型需要先从互联网上吸收海量的数据——比如文本、照片、艺术品等,涉及的参数和变量高达数百亿个。ChatGPT 所基于的 GPT-3 系统拥有超 1750 亿个参数。
Forrester Research 的分析师 Rowan Curran 认为,就算抛去专业工程师的人工成本,这一开发环节也需要花费数百万美元。
微软既能提供钱,又能提供算力:微软是世界上最大的云服务供应商之一,Azure 平台在云服务市场的市占率约为 20%,仅次于亚马逊的 AWS。
商业化的路该怎么走
高昂的运营成本让 AI 初创公司纷纷选择和科技巨头合作。去年 11 月,亚马逊已宣布将与 AI 制图平台 Stability AI 合作;谷歌也计划投资 AI 初创公司 Cohere。
不过,一味烧钱的道路当然走不下去,所有 AIGC 平台都注定背负商业化的使命。Open AI 的一位发言人此前曾表示,公司正在努力探索商业化方向,尽可能让更多人享受 AI 技术便利,同时也积极实现经济回报上的平衡。
据媒体报道,微软对 Open AI 的投资条件之一就是获得其近一半的营收。
Open AI 在近期官宣了专业(付费)版本 ChatGPT Pro,定价将为每月每月 42 美元(约 285 人民币)。
同时,微软还计划将 ChatGPT 整合进旗下搜索引擎 Bing 中。有分析认为,微软此举将大大威胁搜索引擎市占率高达 90% 的 Google。此外,微软旗下 Office 产品也将陆续整合 Open AI 的其他 AIGC 产品。
Open AI 和 Azure 这对组合也给微软打了效果不错的广告。微软 CEO Satya Nadella1 月在达沃斯论坛表示:
“微软推动 AI 商业化的方式是 Azure,Azure 已经成为任何想尝试人工智能的人首选的云计算平台”。