谷歌母公司董事长:ChatGPT 搜索成本是传统搜索的 10 倍

Wallstreetcn
2023.02.24 09:25
portai
I'm PortAI, I can summarize articles.

造一个 Bard 版谷歌搜索引擎,Alphabet 要花多少钱?

谷歌聊天机器人 Bard 首战失利导致母公司 Alphabet 市值蒸发 1000 亿美元,然而,这家科技巨头面临的挑战不止于此,生成式人工智能技术和搜索引擎的结合将带来令人瞠目结舌的成本压力。

据媒体当地时间周四报道,Alphabet 董事长 John Hennessy 表示,基于大型语言模型的搜索的成本可能是标准关键词搜索的 10 倍

分析认为,即使基于聊天的搜索方式能带来广告收入,但该技术将产生数十亿美元的额外成本,预计将对 Alphabet 的盈利能力造成冲击。

与此同时,劲敌微软正带着 ChatGPT 版必应在搜索引擎市场攻城略地,谷歌的利润可能会遭到进一步挤压。

造一个 Bard 版谷歌,Alphabet 要花多少钱?

摩根士丹利估计,谷歌去年 3.3 万亿次搜索的平均成本约为每个 0.2 美分,随着人工智能生成的搜索结果增加,平均搜索成本将水涨船高。

例如,分析人士预计,如果在聊天机器人生成的答案中,有一半内容长度为 50 个单词,那么到 2024 年,谷歌可能面临 60 亿美元的支出增长。作为比较,Alphabet 2022 年净利润接近 600 亿美元。

其他人的研究也得出了类似结论。

专注于芯片技术的研究和咨询公司 SemiAnalysis 估计,将类似 ChatGPT 的人工智能添加到搜索引擎中可能会花费 Alphabet 30 亿美元。

不过,如果谷歌能在张量处理器(TPU)等方面实现进一步优化,将有助于削减这一数字。

贵的是计算力

人工智能搜索为什么比传统搜索更贵?

通过人工智能处理搜索问题的过程又被成为 “推理”,在此过程中,系统将模仿人类大脑的生物学特性,从先前的训练中推断出问题的答案。传统搜索利用的是网络爬虫技术,即通过扫描互联网来编制信息索引。当用户键入一个查询时,谷歌会在其索引中挑选出相关度最高的答案。

因此,与传统搜索方式相比,人工智能搜索引擎背后需要更加强大的计算能力作为支撑。

而这又依赖于价值数十亿美元的芯片。华尔街见闻此前文章提及,国盛证券估算,今年 1 月平均每天约有 1300 万独立访客使用 ChatGPT,对应芯片需求为 3 万多片英伟达 A100GPU,初始投入成本约为 8 亿美元。

至于训练成本,国盛证券基于参数数量和 token 数量估算,ChatGPT 基于的 GPT-3 模型训练一次的成本约为 140 万美元;对于一些更大的 LLM 模型采用同样的计算公式,训练成本介于 200 万美元至 1200 万美元之间。

谷歌的另一个竞争对手,搜索引擎 You.com 的首席执行官 Richard Socher 说,添加人工智能聊天以及图表、视频和其他生成技术的应用程序会增加 30% 到 50% 的开支。

一位与谷歌关系密切的消息人士警告说,现在确定聊天机器人的具体成本还为时过早,因为效率和使用情况因技术的不同而有很大差异,而人工智能已经为搜索等产品提供了动力。

但无论如何,聊天机器人的开发成本高的吓人,正如埃森哲首席技术官 Paul Daugherty 所言,这恰恰可能是社交媒体巨头没有在一夜之间推出人工智能聊天机器人的主要原因之一。

面对劲敌的围追堵截,谷歌必须突围

Hennessy 告诉媒体,“谷歌必须降低推理成本,” 他认为,在最坏的情况下需要几年时间才能解决。

根据网络分析服务 Statcounter 的数据,目前谷歌占据了全球 93% 以上的搜索引擎市场,而微软必应只占据了 3% 的份额。2022 年,谷歌广告收入为 2240 亿美元,远远超过微软的 180 亿美元。

然而,微软推出 ChatGPT 版必应之后吸引全球投资者目光,挑战谷歌在搜索引擎领域的主导地位。

搜索引擎市场会不会迎来新一轮洗牌?谁又会成为赢家?

微软创始人比尔·盖茨稍早前表示:

我不确定是否会有一个赢家,谷歌已经拥有了所有的搜索利润,他们的搜索利润将会下降。

同时,微软在这方面的进展相当快,谷歌搜索市场份额也可能会下降。

如何降低成本?

一位高级技术管理人员告诉媒体,这种人工智能仍然成本过高,目前无法转嫁到消费者身上。

这位高管说: “这些模型非常昂贵,因此下一步将是降低培训这些模型和推理的成本,这样我们就可以在每个应用程序中使用它。”

据一位知情人士透露,目前,OpenAI 内部的计算机研究人员已经找到了如何通过复杂代码优化推理成本的方法,从而提高芯片的运行效率。

但长期看来,还存在一个重要的问题,即如何将人工智能模型中的参数数量缩减 10 倍甚至 100 倍,同时又不失准确性。

“如何最有效地减少 (参数) ,这仍然是一个悬而未决的问题,” 前英特尔公司人工智能芯片业务负责人 Naveen Rao 表示。

与此同时,一些公司已经考虑对访问收费,比如 OpenAI 为 ChatGPT 高级服务每月收取 20 美元的订阅费用。技术专家还表示,Alphabet 正在探索一种变现方式,即将较小的人工智能模型应用于较简单的任务。

该公司本月表示,其大规模 LaMDA 人工智能技术的 “更小模型” 版本将为其聊天机器人 Bard 提供动力,届时需要的计算能力将显著降低。