“AI 次貸危機” 初現端倪:GitHub Copilot 轉向按量計費,撕開了” 補貼換增長” 的遮羞布

華爾街見聞
2026.04.29 09:18

AI 經濟學並不成立,著名科技評論家 Ed Zitron 認為 AI 訂閲模式本質是欺騙,掩蓋 Anthropic 用户付 1 美元,公司倒貼 13.5-31.5 美元的真實成本。更危險的是,甲骨文 CEO 埃裏森的身家命運,正押注在薩姆·阿爾特曼能否四年內憑空創造 8520 億美元——一場擊鼓傳花的遊戲,正逼近終局。

微软近日宣布 GitHub Copilot 将于 2026 年 6 月转向基于用量的计费模式 这一转变撕开了生成式 AI 行业 “补贴换增长” 的假象。

著名科技评论家 Ed Zitron 认为,AI 订阅模式从一开始就是一种欺骗,旨在掩盖生成式 AI 的真实成本以获取用户 。随着微软、Anthropic 等公司转向按量计费,用户将不得不直面昂贵的真实开支,而整个 AI 泡沫可能因此破裂 。

对于甲骨文 CEO 拉里·埃里森(Larry Ellison)来说,他的未来现在取决于萨姆·阿尔特曼(Sam Altman)能否在四年内筹集到 8520 亿美元 。如果失败,甲骨文的股价大跌将引发连锁的保证金追缴,彻底葬送其财富帝国

一、 补贴时代的终结:Copilot 告别 “全家桶”

GitHub Copilot 用户收到了确认:从 2026 年 6 月 1 日起,所有计划将转向按量计费(usage-based pricing)

  • 计费逻辑巨变:微软不再提供固定数量的 “请求”,而是根据模型消耗的实际代币(tokens)收费 。
  • 实质性涨价:原本每月 19 美元的订阅费将直接转化为 19 美元的代币额度 。
  • 告别补贴:据《华尔街日报》2023 年报道,微软平均每位用户每月亏损 20 美元,部分重度用户甚至导致公司亏损 80 美元 。

微软将此举包装为 “迈向可持续发展的 Copilot 业务” ,但本质上是因为 AI 推理成本过高,导致传统的月费模式已无法维系

二、 “次贷 AI 危机”:破碎的经济模型

Ed Zitron 认为,一场类似次贷危机的风险正在 AI 行业酝酿

1. 错误的 “优步” 类比

生成式 AI 的订阅模式与优步(Uber)截然不同

  • 优步模式:亏损源于营销和补贴,但并不补贴司机的汽油费 。
  • AI 模式:相当于优步收 20 美元月费允许你跑 100 趟长途,却要为每加仑 150 美元的油价买单 。

2. 惊人的真实用量成本

  • 单次请求成本:有用户估算,一次包含 6 万个代币上下文的 “溢价请求” 实际价值约 11 美元 。
  • 开发者开支:Anthropic 估计,使用 Claude Code 的开发者平均每天花费 13 至 30 美元,这意味着每位员工每年的代币开销可能高达 7560 美元 。

三、 数据中心:深陷债务的 “碎钞机”

Ed Zitron 表示,人工智能数据中心的建设与运营成本正变得不可理喻

  • 建设高昂:每兆瓦(MW)容量的成本约为 1400 万美元,其中大部分用于英伟达 GPU 。
  • 微薄的利润:一个 100MW 的数据中心,在 100% 租用率下毛利率仅为 16.7% 。
  • 债务炸弹:如果考虑购买 GPU 的 6 年期资产抵押贷款,在开始偿还本金后,数据中心的毛利率将变为负 40% 。

四、 甲骨文与 OpenAI 的 “死亡螺旋”

甲骨文(Oracle)正将其全部未来押注在为 OpenAI 建设的 “星门(Stargate)” 项目上

  • 项目规模:1.2GW 园区,总成本约 528 亿美元 。
  • 过度依赖:该项目的资金完全来源于数据中心自身的预期现金流,而 OpenAI 是其唯一的希望 。
  • 疯狂的对赌:为了覆盖 “星门” 的建设成本,OpenAI 必须在 4 年内通过营收或融资筹集到 8520 亿美元 。

预警信号:OpenAI 首席财务官 Sarah Friar 已表达担忧,称如果收入增长不够快,公司可能无法支付未来的计算合同,且公司账目尚未准备好满足上市披露标准

以下为文章全文、由 AI 辅助翻译:

GitHub Copilot 定价变更与 “次贷 AI” 危机

昨天上午,GitHub Copilot 用户得到了我一周前报道过的消息的确认——即所有 GitHub Copilot 计划都将于 2026 年 6 月 1 日转为按量计费模式

微软现在将根据用户所使用模型的实际成本收费,而不是向用户提供固定数量的 “请求”,微软称之为 “……向所有用户提供可持续、可靠的 Copilot 业务和体验迈出的重要一步”

用户改为获得他们在 GitHub Copilot 订阅上花费的等额度(例如:在每月 19 美元的计划中获得价值 19 美元的代币额度)

翻译一下:“我们不能再继续补贴 GitHub Copilot 用户了,否则 Amy Hood(微软 CFO)就要开始拿棒球棍打人了”

无论如何,公告本身是一个引人入胜的预演,展示了这些价格变动将如何被重新包装 :

Copilot 不再是它一年前的那个产品了。

它已经从一个编辑器内的助手演变成了一个具备代理能力(agentic)的平台,能够运行长期的、多步编码会话,使用最新模型,并跨整个代码库进行迭代。

代理化(agentic)的使用正成为默认方式,它带来了显著更高的计算和推理需求 。

今天,一个简短的聊天问题和一个长达数小时的自主编码会话可能会消耗用户同样的费用 。

GitHub 已经吸收了这种使用背后大部分不断升级的推理成本,但当前的溢价请求模式已不再可持续 。

按量计费修复了这一点 。它更好地使定价与实际使用相一致,帮助我们维持长期的服务可靠性,并减少了限制重度用户的需求 。

你看,并不是微软一直在补贴近两百万人的计算成本,而是 AI 已经变得如此强大、有力且复杂,以至于它基本上变成了一个不同的产品!

虽然 Copilot 可能 “不再是它一年前的那个产品”,但底层的经济错位几乎没有改变:即微软允许用户连续三年每月烧掉超过其订阅成本的代币 。

根据《华尔街日报》2023 年 10 月的报道 :

个人每月为 AI 助手支付 10 美元 。

据一位熟悉数据的人士透露,在 2023 年前几个月,该公司平均每位用户每月亏损超过 20 美元,其中一些用户每月给公司造成的成本高达 80 美元 。

自然地,GitHub Copilot 用户正在反抗,称该产品 “已死” 且 “被完全毁掉”

而我在两年前的《次贷 AI 危机》中就预言了这一点

我假设一种次贷 AI 危机正在酝酿,几乎整个科技行业都买入了一项以极高折扣售卖、由大科技公司高度中心化并补贴的技术

在某个时间点,生成式 AI 令人难以置信的、有毒的烧钱速度会追上他们,这反过来会导致价格上涨,或者公司发布具有极高费率的新产品和功能——比如 Salesforce 的 “Agentforce” 产品那令人震惊的每对话 2 美元的费率——这将使即使是有预算可烧的坚定企业客户也无法证明这笔支出的合理性

那一天终于到来了,因为你使用的每一个 AI 服务都补贴了计算成本,且每一个服务都因此在亏损

当你支付访问 AI 初创公司服务的费用时——这当然包括 OpenAI 和 Anthropic——你支付的是月费,例如 Anthropic 的 Claude 是每月 20 美元、100 美元或 200 美元,Perplexity 是每月 20 美元或 200 美元,或者是 OpenAI 每月 8 美元、20 美元或 200 美元的订阅

在某些企业用例中,你会获得特定工作单元的 “积分”,例如 Lovable 在其每月 25 美元的订阅中允许用户获得 “100 个月度积分”,以及 25 美元(截止到 2026 年第一季度末)的云托管费,积分可在月度间结转 。

当你使用这些服务时,相关公司随后会向 AI 实验室支付访问 AI 模型的费用,要么按每百万代币的费率,要么支付给任何租给他们 GPU 以运行模型的云供应商 。

一个代币基本上是 3/4 个单词。

作为用户,你不会感觉到代币消耗,只感觉到输入和输出的过程。

AI 实验室通过使用 “代币” 或 “消息” 或带有百分比仪表的 5 小时速率限制来混淆服务成本,而你作为用户,并不真正知道这一切到底花了多少钱。

在后端,AI 初创公司正在挥霍现金。

直到最近,Anthropic 仍允许你每支付 1 美元的订阅费就烧掉超过 8 美元的计算成本 。OpenAI 也是如此,尽管很难衡量具体数额 。

AI 初创公司和超大规模企业假设,他们能够通过补贴、亏损的产品吸引足够多的人进门,让他们对服务产生足够的依赖,以至于一旦企业上调价格,他们也会拒绝改变。

他们还假设代币的成本会随时间推移而下降,而实际发生的情况是——虽然某些模型的定价可能有所下降,但新的 “推理” 模型烧掉的代币要多得多,这意味着推理成本随着时间的推移反而变得更高了 。

这两个假设都是错误的,因为月度订阅模式对于任何连接到大语言模型(LLM)的服务来说都不合理 。

生成式人工智能的核心经济模式已然失效

不妨这样想。当优步( 不,这和优步完全不同 )开始大幅提高车费时,其背后的经济逻辑并未改变,乘客和司机所面临的经济状况也依然如故——乘客为乘车付费,司机因载客获得报酬。

司机们依然需要支付汽油费、车险费、地方政府可能强制要求的各类许可证费用,以及与车辆相关的任何融资成本,而这些费用并未得到优步的补贴。优步的巨额亏损源于补贴、无休止的营销开支,以及在无人驾驶汽车等项目上注定失败的研发投入。

生成式人工智能订阅服务与优步截然不同

为了说明人工智能定价失衡的严重程度,我想请大家设想一个平行时空,在那里的优步采用了截然不同的商业模式。

生成式人工智能的订阅模式,就像是优步(Uber)向用户收取每月 20 美元的费用,即可享受 100 次任意距离(不超过 100 英里)的乘车服务,而且汽油价格为每加仑 150 美元, 并且由优步承担油费因为有人坚持认为石油总有一天会便宜到无需计价的地步。

优步最终决定向用户收取月费以提供叫车服务,并按实际油耗向用户收费。

用户原本每月只需支付 20 美元即可享受 100 次乘车服务,如今却要先支付 20 美元才能叫到司机,再支付 26 美元才能完成 10 英里的行程。可以想象,用户难免会有些不满。

虽然这听起来有些夸张,但实际上,这恰如其分地比喻了生成式人工智能行业,尤其是 GitHub Copilot 当前所发生的情况。

GitHub Copilot 之前的定价方案允许每月进行 300 次高级请求,以及使用 GPT-5 mini 等模型进行 “无限次聊天请求”。

据微软所述,每次此类请求(即 “...任何你要求 Copilot 为你做某事的交互”, 而更昂贵的模型会消耗更多请求。在基于请求的系统后期,例如 Claude Opus 4.6 会消耗三个高级请求。 当你的高级请求用完后,Copilot 会允许你在当月剩余时间内不限次数地使用这些较低成本的模型。

其实情况并非一直如此。 直到 2025 年 5 月 ,微软一直为用户提供对模型的无限访问权限,而且即便在那时,用户也对产品存在任何限制感到愤怒。

微软——和其他人工智能公司一样——通过销售一种不可持续的服务来欺骗客户,因为以月度订阅的形式销售基于大型语言模型(LLM)的服务,从根本上来说是毫无道理的。

如果你想知道在基于代币的计费模式下,服务费用大概是多少, GitHub Copilot Subreddit 上的某位用户 发现,过去单次高级请求消耗的令牌价值约为 11 美元,因为一次 “请求” 涉及在上下文窗口中使用 60,000 个令牌、若干工具以及大量内部 “迭代”(模型执行的操作)来生成输出结果。

此外,容易产生幻觉的大型语言模型本身也存在不可靠性。虽然一个高价请求在原地打转并吐出半吊子的代码可能会让人 感到沮丧 ,但当你自己承担这些成本时,同样的失误就很难被原谅了。

此外,用户已经习惯以一种与代币计费完全不同的方式使用该产品,我想其中许多人甚至并没有真正意识到自己消耗了多少 “代币”,或者完成某项任务需要多少代币——而这些数值会根据所采用的计费模型而有所不同。

这与优步完全不同, 而任何告诉你相反观点的人,都在试图为不良行为找借口。 优步或许提高了价格,但这并不意味着它必须彻底改变平台的经济模式,用户也不必因为优步突然改按每加仑收费而完全改变使用习惯。

“按月订阅” 全是 AI 补贴骗局的一部分,有意将生成式 AI 与其实际成本割裂开

从来没有——将来也不会——存在一种在经济上可行的方式,能够在不向每位用户收取 实际代币费用的情况下提供由大型语言模型(LLM)驱动的服务;而在欺骗这些用户的过程中,这些公司所打造的产品不仅收益虚幻,其投资回报率也令人质疑。

这一点多年来一直显而易见。

从经济角度来看,月度订阅模式只有在成本相对稳定时才具有合理性。

健身房在销售会员卡时,大致知道设备在一定时期内的折旧程度、课程运营成本,以及水电费、人工费等各项开支。

在引入人工智能之前,Google Workspace 的客户只需承担访问或存储文档的相关费用,以及 Google 文档和其他服务的持续费用。由于数字存储成本相对较低(且与大型语言模型不同,Google Workspace 对计算资源的需求并不高),因此即使是非常频繁使用 Google 云端硬盘的用户,也不会对他们的月度订阅利润造成侵蚀。

相反,AI 订阅用户的成本可能大相径庭 。

有的用户可能只是偶尔用 ChatGPT 进行搜索,而另一些用户则可能输入大量文档,或尝试重构代码库,甚至试图用它来制作 PowerPoint 演示文稿。

而服务提供商——无论是像 OpenAI 或 Anthropic 这样的模型实验室,还是像 Cursor 这样的初创公司——除了通过降低产品性能(例如设置使用限制、缩小上下文窗口大小、将客户引导至性能更差的小型模型,或调整定价以阻止用户发起大量占用 GPU 资源的请求)之外,实际上并无有效手段来控制用户的行为。

然而,这些服务会刻意隐藏代币数量或某项操作的实际消耗,这意味着用户并不知道 “速率限制” 究竟意味着什么,因此每次对速率限制的突然调整 导致客户不得不拼命推算,自己究竟能通过该服务完成多少实际工作。

这是一种滥用、操纵和欺骗性的商业手段,其存在仅是为了让 Anthropic、OpenAI 及其他人工智能公司能够扩大用户基数,因为绝大多数人工智能用户完全是通过 “能够消耗” 这一视角来感知其真实或想象中的益处的每花费 1 美元订阅费,就能在代币中获得 8 至 13.50 美元的回报。

这种蓄意的欺骗行为只有一个目的:确保绝大多数人永远不会了解到生成式人工智能的真实成本。

当《大西洋月刊》大肆渲染 Claude Code 是 Anthropic 的 “ChatGPT 时刻” 时, 其依据的却是每月 20 美元的订阅费,而非 Anthropic 提供该服务所实际产生的底层代币销毁成本。这反过来又让作者对模型可能出现的 “微小错误”,或是其在 “处理更复杂的编程任务时卡住” 的情况予以宽容。

如果这位作者是自掏腰包支付了代币销毁的费用,而且每次代币 “卡住” 都要被扣 15 美元,我想她对这些失误就不会这么宽容了。

然而,这一切都是骗局的一部分。

非常、非常重要的一点是,主流媒体中撰写人工智能相关文章的人实际上根本不了解这些服务的成本究竟有多高;而且,任何关于 ChatGPT 或 Claude Code 等服务的主流文章,其作者对每项具体任务可能给用户带来的成本几乎一无所知,或者完全不了解。

请记住:生成式人工智能服务在很大程度上属于实验性产品,其运作方式与任何其他现代软件或硬件都不同。你不能像对待普通软件或硬件那样,直接打开 ChatGPT 或 Claude 并开始要求它们执行任务。

我的意思是,你可以,但如果你没有给出正确的提示、不了解它的运作原理、在输入内容时出错,或者它本身就判断错误,它就会输出你不喜欢的内容,这意味着你需要重新给它下达指令。 大型语言模型(LLMs)天生具有不可预测性。

你无法保证一个大型语言模型(LLM)是否会执行某项特定操作,也无法保证它给出的结果是否基于现实。你无法确切知道某项任务——即便是你过去曾多次使用大型语言模型完成的任务——可能需要多少成本;同样,你也无法确定模型何时会失控并删除某些内容,或者干脆不执行某项操作却声称已经完成了。

如果你不是按每次交互计费,这些情况就容易被原谅得多,因为在订阅者的观念里,这不过是与聊天机器人多互动一两次,而非会产生实际成本的事情。

人们之所以不批评所谓的 “不稳定智能”,是因为大家默认认为,无论你现在面临什么问题,将来某个时候都会解决,而且你最终也没为此买单。

如果用户被迫按实际费率付费,我想很多人会立刻弃用这个产品,因为如果你只是随便玩玩、探索大语言模型(LLM)能做什么,5 美元的代币转眼就能花光。

事实上,你可能会花掉一大笔钱却始终得不到想要的结果,因为大型语言模型(LLM)根本算不上真正的人工智能!

如果对它们的局限性缺乏真正了解,人们很容易就会花掉 30 美元、50 美元,甚至 100 美元,试图说服一个 LLM 去做它坚称自己能够做到的事情。

这有个专有名词,阿谀奉承。

大型语言模型(LLMs)通常被设计成会迎合用户,即使用户 说出危险且不着边际的话 ,这种迎合甚至可能延伸到问:“你想要这个既在技术上也不在财务上都完全不可行的庞大项目吗?” 没问题!

这就是为什么该行业如此费尽心机地掩盖这些成本——这简直是明目张胆的敲竹杠!

我认为,大多数人工智能订阅服务转向代币计费模式是不可避免的,尤其是考虑到 Anthropic 和 OpenAI 现已对其企业客户采用了这种模式。

微软将 GitHub Copilot 订阅用户转为基于令牌的模式,这也是一个非常、非常不祥的征兆。微软无疑是资金最雄厚、盈利能力最强、且最具备条件继续补贴计算资源的公司;如果连它都无力继续这样做,那么其他任何公司也做不到。

真正值得关注的是—— 一匹真正的白马 ——将是像 Anthropic 或 OpenAI 这样的主要 AI 实验室将 所有 订阅用户转为代币计费。 一旦发生这种情况,你就知道大局已定。

普通企业能否负担得起转向代币计费模式?Anthropic 估计,用户每天在 Claude Code 上的花费为 13 至 30 美元(每年 7000 多美元),而大型企业每年则花费数十万甚至数百万美元。

正如我上周所讨论的, 优步(Uber)首席技术官在一次会议上表示,该公司仅用几个月时间就花光了 2026 年整年的 AI 预算 ,高盛指出,部分企业用于 AI 代币的支出已占其员工总数的 10%,未来几季度这一比例可能升至 100% 的水平。

这是因为每家人工智能公司都在教导用户尽可能多地使用这些服务,同时却刻意掩盖其真实成本所导致的直接后果。每一家要求每位员工 “尽可能多地使用人工智能” 的大型企业,在提出这一要求时,要么根本无视,要么完全脱离了其实际代币消耗情况;而随着企业被迫支付 实际成本 ,我不确定从经济角度如何能 为 这项技术中的任何投资提供依据。

当然,当然,你会说工程师们 “交付代码的速度更快了” 之类的废话,我懂,但是到底快了多少,结果又赚了或省了多少钱?

如果你把 10% 的人力投入到 AI 代币上,这笔额外开销是否通过其他方式得到了平衡?因为我不确定你们做到了。 我不确定任何企业投入如此巨额资金在代币上,能看到任何投资回报,这就是为什么每项关于 AI 投资回报率的研究 都难以找到其确实存在的有力证据。

总体而言,那些你读到过、对生成式人工智能的种种可能性大加赞赏的人,其实都是在无需承担真实成本的情况下体验了这项技术。那些在推特上滔滔不绝地吹嘘整个工程团队都在埋头开发 Claude Code 的疯子们,其实都是通过每月每人 125 美元的 Teams 订阅。其使用限制与 Anthropic 每月 100 美元的消费者订阅大同小异。

每个在领英上喋喋不休、坚称自己使用某种 Perplexity 产品 “几分钟就完成了数小时工作” 的怪胎,所支付的费用至多不过是每月 200 美元的 Perplexity Ma 订阅费。

实际上,那份每月 1250 美元、供 10 人使用的 Teams 订阅,仅 API 调用费用每月就可能高达 5000 至 10000 美元,甚至更多。

Anthropic 增长负责人阿莫尔·阿瓦萨雷(Amol Avasare)上周表示,其 Max 订阅服务专为高频聊天使用而设计 ,而非用户在 Claude Code 和 Cowork 上的各类操作。

他明确表示,Anthropic 目前正在探索 “ 各种方案以持续提供优质体验,”这实际上意味着 “我们迟早会调整价格。”

我不确定大家是否意识到这些代币有多昂贵,尤其是对于涉及庞大代码库、并需要定期调用编码和基础设施工具的开发项目而言。

每月支付 200 美元的人,真的能负担得起 350、400 或 500 美元吗? 他们能否承受某个月的支出超过这个数额? 如果他们超支了,或者真的无力承担完成工作所需的费用,会发生什么?

举一个更贴近实际的例子,截至 4 月初, Anthropic 自己的 Claude Code 开发者文档 ( 存档 ) 曾指出:“[使用 Claude Code 的] 平均成本为每位开发者每天 6 美元,90% 的用户每日成本低于 12 美元。” 截至本周, 文档内容已更新如下:

Claude Code 按 API 令牌消耗量计费。每位开发者的成本因模型选择、代码库规模以及使用模式(例如运行多个实例或自动化操作)而差异较大。

在企业级部署中,平均成本约为每位开发人员每个活跃日 13 美元,每月 150 至 250 美元,且 90% 的用户成本仍低于每个活跃日 30 美元。

若要估算您团队的支出,建议先从一个小型试点小组开始,并利用下方的跟踪工具建立基准,然后再进行更大范围的推广。

如果按每月平均 21 个工作日计算,那么每位 Claude Code 用户的平均成本约为每月 273 美元,或每年 3,276 美元。若按每个工作日 30 美元计算,则每月成本为 630 美元,或每年 7,560 美元。

这些数字令人震惊 ,更令人震惊的是, 如果你使用 Anthropic 的任何较新模型,每天的开销绝不可能只有 30 美元。

Claude Opus 4.7 的费用为每百万输入令牌 5 美元,每百万输出令牌 25 美元。 一百万个令牌大约相当于 50,000 行代码 ,而且假设你使用的是所谓的尖端模型,那你绝对不可能不消耗 至少一百万行,如果你不清楚特定任务该用哪些模型,这个数字还会急剧增加。

我们再来仔细分析一下这个 30 美元的数字。

对于一个十人的开发团队来说,这相当于每年 75,600 美元,而且我们只计算工作日。

如果你仅工作三个月,每天平均赚 50 美元,那么总收入将达到 88,200 美元

只要有一个月的支出超过 100 美元,你一年的总支出就是 102,900 美元。

如果你每天花费 300 美元,那么目前你为十个人购买代币的总花费已达 756,000 美元。

虽然在资金雄厚的初创企业或像 Meta 这样的 “香蕉共和国” 那种 “小金库” 思维模式下,这或许可行,但任何真正注重成本的企业,都很难为一项 “提高生产力” 却又无人能量化的服务,额外花费五位数或六位数的费用找到正当理由。

目前,我认为大多数公司大致可分为三类:

在 Spotify 或 Uber 这类大型企业中,由深谙人工智能的 CEO 主导的企业级部署,使得预算得以肆意挥霍。

我认为,在资金雄厚的大型初创企业中也是如此。

使用受补贴的 “Teams” 订阅服务的中小型初创企业。

个人用户支付月费以使用 Claude 或其他 AI 订阅服务。

大型企业至今仍可以理直气壮地宣称,他们正为软件工程师在 AI 代币上投入数百万美元 其理由是让 “顶尖工程师” 无需编写代码——尽管这种做法的益处颇具争议。

只需一次糟糕的财报电话会议,就能彻底颠覆这种叙事。

当公司的营收增长跟不上时,投资者——甚至包括那些一直在吹捧 AI 泡沫的脑残蠢货——终将开始质疑不断攀升的研发成本(AI 代币销毁通常就隐藏在其中)。

这很可能导致更多裁员以控制成本, 就像 Meta 的情况一样 ,随后当有人问 “这些破玩意儿到底能不能帮我们更快或更好地完成工作?” 时,市场终将出现回调。

我还认为,那些将 10% 或更多员工名额用于 AI 岗位的初创公司,半年后将很难说服投资者相信此举是必要的。

而且一旦大家都转为代币计费模式,我不确定生成式人工智能还能像现在这样备受追捧。

人工智能数据中心和计算资源的经济逻辑难以成立

人们谈论人工智能数据中心的方式完全脱离了现实,而且我认为大家并没有意识到这个时代已经变得多么荒谬。

人工智能数据中心的建设成本高昂,运营成本高昂,且实际收入微乎其微

据 TD Cowen 的杰罗姆·达林(Jerome Darling)称,关键 IT 设备(GPU 及相关硬件)的成本约为 3000 万美元,而每兆瓦数据中心容量的成本约为 1400 万美元。数据中心的建设周期似乎在一年到三年之间,具体取决于规模,且这还是在电力供应充足的前提下。

据称到 2028 年底将建成 114GW 的数据中心, 但目前以任何形式在建的仅有 15.2GW。 而且,“在建” 一词的含义可能仅指 “地面上挖了个坑”。这并不意味着——也不应意味着—— 该设施将提供的容量即将投入使用。

我们先从简单点说起:每当你想到 “100 兆瓦” 时,就想到 “44 亿美元”,其中很大一部分将用于英伟达的 GPU。

因此,每个 AI 数据中心从一开始就背负数百万美元的债务,即使采用长达六年的折旧周期,也需要数年才能偿还 ……而考虑到英伟达的年度升级周期 ,一旦首个客户合同结束,这些 GPU 恐怕很难再带来多少收益。

目前尚不清楚,除了 OpenAI 和 Anthropic 之外,是否还存在其他 AI 计算的客户群体, 这两家公司的需求占在建 AI 数据中心的 50%,如果其中任何一家无力支付,都将造成巨大的系统性风险。

无论如何,这些数据中心目前收取的具体费率也不清楚。 虽然 B200 GPU 的现货价格可能在每小时 4.50 美元左右,但长期合同的价格通常要低得多。据《The Information》报道,一位创始人表示,他们签订了一年期合同,每台 GPU 每小时支付约 3.70 美元。

需要明确的是,我们必须区分现货 成本——即在他人服务器上随机启动 GPU 的成本——与合约计算,后者占数据中心资本支出的绝大部分。 大多数数据中心的建设初衷是服务于 一两个大客户 ,这意味着这些客户很可能协商出更优惠的综合费率。

因此,许多数据中心的每小时成本远低于 3.70 美元,因为它们按每兆瓦(或千瓦)计费。

而这也正是经济逻辑开始失效之处。

100 兆瓦数据中心的经济模型为何失灵——每小时 2.55 美元,100% 出租率下毛利率仅 16%,却因债务而无法盈利

这是 100 兆瓦数据中心的起始成本。

一个 100 兆瓦的数据中心实际可用功率可能只有 85 兆瓦 可用容量 ,据熟悉超大规模云服务商计费机制的消息人士透露,其每兆瓦预计可产生约 1250 万美元收入,即年收入约 10.63 亿美元。

现在,我需要明确一点:你们所熟知的大多数数据中心公司其实并不亲自建设数据中心,而是将这项工作交给像 Applied Digital 这样的公司,这些公司也被称为 “托管合作伙伴”。

例如, CoreWeave 向 Applied Digital 支付托管费用,以使用其位于北达科他州的数据中心 。

CoreWeave 负责数据中心内的所有 GPU 及其他技术设备。

为了解释这种经济错配,我将以一个理论上的数据中心为例,该数据中心被租赁给了一家理论上的 AI 计算公司。

该数据中心的 GPU 很可能是英伟达的 Blackwell 芯片。极有可能的是,该数据中心正在使用由 8 块 B200 GPU 组成的集群,每块零售价约为 45 万美元,即每块 GPU 约 56,250 美元。

根据 85 兆瓦的关键 IT 负载计算,每兆瓦的总资本支出约为 36.78 美元,即 IT 总资本支出约为 31.26 亿美元,其中 GPU 部分约为 26.7 亿美元。

假设该数据中心位于北达科他州的埃伦代尔,这意味着您享受的工业用电价格约为每千瓦时 6.31 美分,折算下来,每年的电费成本约为 5540 万美元。

根据与相关人士的讨论,我估计维护、人员开支、电源更换等持续性成本约占收入的 12%,即每年约 1.28 亿美元,因此总成本达到 1.834 亿美元。

等等,抱歉。你还需要根据关键 IT 设备支付托管费,据 Brightlio 称,该费用通常为每月每千瓦 180 至 200 美元 ,具体取决于部署的规模和地点,不过我曾看到过低至 130 美元的情况,所以我采用这个数字,即每年约 1.33 亿美元。 这样算下来,总计为 3.164 亿美元。

嗯,这还不到 10.6 亿美元,所以我们情况还不错,对吧?

错!你需要对价值 31.26 亿美元的 IT 设备进行折旧,在 6 年的折旧期内,每年折旧额约为 5.21 亿美元。这意味着每年折旧 8.374 亿美元,因此每年利润约为 1.686 亿美元,毛利率约为 16.7%……… 前提是你的机房始终保持 100% 的租用率!

要知道,数据中心可能需要一两个月才能完成这些 GPU 的安装和客户入驻,在此期间你不仅一分钱收入都没有,反而会损失更多——因为你必须一直支付机房托管费、电费和运营成本,尽管费率要低得多(我设定的模型中,电费占比为 10%,机房托管/运营支出占比为 15%),这意味着你每天亏损约 327 万美元。

为了便于说明,我们假设你需要额外花一个月时间才能让该项目投入运营,这意味着你已经支付了约 1.02 亿美元,且这笔钱将无法收回,从而使我们本年度的总成本(含折旧)达到 9.394 亿美元,毛利率为 6.6%。

等等,靠,你该不会是用借贷来买这些显卡的吧? 你真这么干了? 情况到底有多糟? 天啊 ——你拿到了一个 6 年期、贷款价值比(LTV)80% 的资产抵押贷款,这意味着你以 6% 的利率借了 28 亿美元。

贵行一如既往地慷慨,向您提供了一项优惠——长达 12 个月的宽限期,期间您只需支付利息……这笔利息约为 1.68 亿美元,因此(为公平起见,扣除延迟的一个月),第一年的总成本约为 10.05 亿美元……而收入仅为 10.6 亿美元。

这意味着毛利率为 5.19%,而你甚至还没开始偿还本金。一旦开始偿还本金,你每月需支付 5410 万美元的贷款本息,未来五年每年总计约 6.49 亿美元,累计约 14.8 亿美元,这意味着毛利率将降至负 40% 左右。

而且我必须明确指出, 这仅适用于设备利用率达到 100%,且租户每次都能按时付款的情况。

“星门” 是一场灾难——每小时每块 GPU 耗资 2.94 美元,年收入 100 亿美元,进度落后数年,一家租户每年亏损数十亿美元

让我们来谈谈应该成为数据中心历史上最具经济可行性的项目——由甲骨文(Oracle)为全球最大的人工智能公司建造的一座庞大园区。

甲骨文是一家拥有数十年历史、几乎达到超大规模级别的公司,长期以来一直向企业和政府销售昂贵的数据库及企业管理软件。

哈,我当然是在开玩笑,这地方简直是个他妈的噩梦。

Stargate Abilene 是一个由八栋建筑组成的数据中心园区,总容量达 1.2GW,其中关键 IT 设备约占 824MW,该项目于 2024 年 7 月首次公布 。 截至 2026 年 4 月 27 日,仅有两栋建筑投入运营并产生收入,而第三栋建筑内几乎没有任何 IT 设备。我估计 Stargate Abilene 的总成本约为 528 亿美元。

根据我自己的报道 ,甲骨文预计 “Stargate Abilene” 项目将带来约 100 亿美元的年收入,而我估算其为单一客户 OpenAI 建设的 7.1 吉瓦数据中心容量将带来约 750 亿美元的总收入。 正如我此前报道,甲骨文在 2024 年估算,Abilene 项目每年需向土地开发商 Crusoe 支付至少 21.4 亿美元的机房托管及电费。

我还想补充一点,看来甲骨文公司正在承担阿比林的所有建设费用。

根据我的计算和报告,我估计阿比林公司全面投产后,其毛利率约为 37.47%:

我必须明确指出,37.47% 的毛利率可能偏高,因为我并不确切了解甲骨文的实际保险或人力成本,仅能根据本刊查阅的文件进行估算。

我还必须明确指出,甲骨文正在将它整个该死的未来押注在 “星门阿比林” 这类项目上,为一项业务预先投入数十亿美元成本——即便 OpenAI 能按时支付每一笔款项,这项业务也需数年才能实现盈利。

遗憾的是, 我无法确定 Abilene 有多少资金是通过债务筹集的,只知道甲骨文在 2025 年 9 月发行了规模各异的债券, 总额约 180 亿美元,期限从 7 年到 40 年不等,且 在上一季度财报中出现了 247 亿美元的负现金流 。

我所知道的是,它与开发商 Crusoe 签订了一份为期 15 年的租赁协议 ,而且甲骨文的未来在很大程度上取决于 OpenAI 能否持续支付租金,而这又取决于甲骨文能否完成 Stargate Abilene 项目。

我还必须明确一点:只有在 OpenAI 按时付款、尽快接管阿比林项目,且一切按计划进行的情况下,才能实现这 38.5 亿美元的年利润。

如果 OpenAI 在未来 4 年内无法通过营收、融资和债务筹集到 8520 亿美元,那么 “星门” 数据中心项目将让甲骨文倒闭

遗憾的是,实际情况却恰恰相反:

据 DatacenterDynamics 报道,首批 200 兆瓦的电力原定于 “2025 年 ” 投入使用。

随着时间推移,入驻计划原定于 2025 年上半年开始,并 “到 2025 年有望达到 1GW,” 并于 2026 年中期完成全部 1.2GW 装机容量 ,预计于 2026 年中投入运行,到 2026 年底拥有 64,000 个 GPU。

截至 2025 年 9 月 30 日,“两栋建筑已投入运营”,截至 2025 年 12 月 12 日, 甲骨文联合首席执行官克莱·马古尤克表示,阿比林项目 “进展顺利”,已交付 “超过 96,000 块英伟达 Grace Blackwell GB200”,即相当于两栋大楼的 GPU 数量。

四个月后的 2026 年 4 月 22 日, 甲骨文在推特上发文称 “……在阿比林,200 兆瓦的电力已投入运营,八栋建筑组成的园区建设仍按计划推进。”

目前尚不清楚这 200 兆瓦是指关键 IT 设施的容量,还是阿比林园区的总可用电力;无论如何,这仅够满足两栋建筑的用电需求,这意味着甲骨文显然并未 “按计划” 推进。

这是一个重大问题。OpenAI 只能为实际存在的计算资源付费,而目前仅有 206 兆瓦的关键 IT 资源正在产生收入,其中三分之一至少还需要一个月(甚至一个季度)才能开始创收。

然而,“星门” 数据中心项目整体上还存在一个更严重、更具根本性的问题——该项目唯一能说得通的前提,就是 OpenAI 必须实现其那些荒谬可笑、简直像卡通片里才有的预测。

正如我上周五所讨论的 :

我再重复一遍这些数据:目前正在建设的 7.1 吉瓦 Stargate 数据中心,建成后预计将带来约 750 亿美元的年收入,总成本将超过 3400 亿美元。

甲骨文的自由现金流为负 247 亿美元,其其他业务线已趋于停滞,这使得利润率为负或较低的云业务成为其唯一的增长引擎。

要想真正支付其计算服务合同的费用——无论是支付给亚马逊、微软、CoreWeave、谷歌、Cerberas 等合作伙伴,还是支付给甲骨文——OpenAI 必须在四年内筹集或创造 8520 亿美元的收入和/或资金,这意味着其业务必须每年增长超过 250%, 每年增长率必须超过 250%,到 2030 年底时业务规模需扩大 10 倍,届时它必须设法实现现金流转正,这些数字才有意义。

说白了,OpenAI 的预测显示,未来四年该公司将赚取 6730 亿美元,但为此将烧掉 2180 亿美元。这显然是一项极其亏损的业务,即便不是这样,它也必须赚取远超当前的利润,才能持续向甲骨文支付费用。

我得出这个 750 亿美元的数字,是基于以下假设:Vera Rubin GPU 的计算成本约为每兆瓦 1400 万美元(这一数字已得到熟悉数据中心行业人士的证实),并以此计算剩余 4.64 千兆瓦的关键 IT 基础设施——我预计这些设施构成了剩余的 Stargate 数据中心。

OpenAI 的数据直接来源于《The Information》报道的 OpenAI 预计现金消耗率和收入泄露信息 ,据此,该公司预计到 2030 年底将实现 6730 亿美元的收入,并为此消耗 8520 亿美元:

我必须明确指出,任何记者如果只是重复这些数字,却不指出这些数字有多么愚蠢,都应该感到有点羞愧。正如我在周五的文章中所说:

换句话说,OpenAI 预计两年内其营收将超过台积电 ,三年内年收入将接近 Meta 的水平,到 2030 年底,其年收入将与微软相当( 约 3000 亿美元(基于过去 12 个月的数据))。

而且如果 OpenAI 无力承担这些计算成本,甲骨文就完蛋了, 因为它 仅为建造 Stargate 的数据中心就背负了约 1150 亿美元的债务 ,且还需要 1500 亿美元才能完成建设:

甲骨文是一家目前年收入约为 640 亿美元的公司,其上一季度的自由现金流为负 247 亿美元。

该公司于 2025 年 9 月发行了 180 亿美元债券 ,2026 年 2 月发行了 250 亿美元债券,该公司于 3 月某时进行了 200 亿美元的按市价发行股份,尽管该交易数月前就被称为 “已完成”,但似乎直到最近才真正完成威斯康星州 Stargate 和 Shackelford 项目的 380 亿美元项目融资 。

此外,我还列出了与 “星门密歇根” 项目相关的 140 亿美元数据中心债务。

无论如何,甲骨文的资金都不足以完成 “阿比林星门” 项目。要完成该项目,至少还需要 1500 亿美元,这还是假设其他合作伙伴能承担约 300 亿美元成本的情况下。说实话,实际金额可能更高。

我必须明确指出, 如果没有 OpenAI,甲骨文别无他法获得这笔收入, 而且这些项目的资金完全来源于数据中心自身的预期现金流。

而且,我并不是唯一对此感到担忧的人。据《华尔街日报》报道,在 OpenAI 未能达到用户和营收目标后,该公司高管莎拉·弗里尔也表达了类似的担忧, :

OpenAI 最近未能达到其设定的新用户和营收目标,这些失误让部分公司高管开始担忧,该公司是否还能负担得起在数据中心上的巨额开支。

据知情人士透露,首席财务官莎拉·弗里尔已向公司其他高管表示,她担心如果营收增长不够快,公司可能无法支付未来的计算合同费用。

知情人士称,近几个月来,董事会成员还对公司的数据中心交易进行了更细致的审查,并对首席执行官萨姆·阿尔特曼在业务放缓的情况下仍力图获取更多计算能力的举措提出了质疑。

如果这还不能让你担心,也许这个能:

她向高管和董事会成员强调,OpenAI 必须加强内部控制,并提醒称该公司尚未做好准备,无法满足上市公司所需的严格报告标准。

据部分知情人士透露,阿尔特曼则倾向于制定一个更紧迫的 IPO 时间表。

这听起来确实像是一家到本十年末能赚到 8520 亿美元的公司!

Anthropic 与 OpenAI 同样糟糕,承诺从谷歌和亚马逊采购高达 10GW 的计算资源

虽然我经常批评 OpenAI 那些荒谬的承诺,但 Anthropic 也相去不远, 声称将从 Google 和 亚马逊 的总计 “高达” 5GW 计算能力。鉴于该容量的规模,我估计这笔交易中实际的计算承诺价值约为 1000 亿美元。

此外,我还想补充一点:谷歌和亚马逊比甲骨文精明得多,也远没有那么走投无路,这意味着如果 Anthropic 最终资金耗尽,它们完全有能力承受这一打击。该协议中 “最高” 这一条款为它们提供了亟需的回旋余地,而这正是甲骨文所不具备的。

尽管如此,若要 Anthropic 真正兑现其承诺,该公司必须同意在 2030 年底前,每年在计算资源上投入 250 亿至 1000 亿美元。

Anthropic 的首席财务官于 3 月表示,该公司自成立以来累计营收已达 50 亿美元 。

每年需要有 1568 亿美元的 AI 收入来支持正在建设的 15.2GW 人工智能数据中心,以及 1.18 万亿美元来支持所有已宣布的 114GW 数据

围绕黄仁勋声称正在销售的数以千亿计的 GPU 所产生的狂热,往往掩盖了一个棘手的问题:黄仁勋,你究竟是把这些计算能力卖给谁呢?

如果假设正在建设中的 15.2 吉瓦数据中心容量(预计于 2028 年底前建成)的 PUE 值约为 1.35,那么剩余的关键 IT 容量约为 11.2 吉瓦。

按每兆瓦 1400 万美元计算,要使这些数据中心真正具有经济价值,每年所需的 GPU 租赁收入需达到约 1568 亿美元。

如果按理论上到 2028 年底将投产的 114 吉瓦装机容量来计算,年收入将攀升至 1.18 万亿美元。

为了让大家了解背景,CoreWeave——这家拥有 Meta、OpenAI、Google(为 OpenAI 服务)、Microsoft(为 OpenAI 服务)、 Anthropic 和 NVIDIA 作为客户—— 实现了约 51 亿美元的营收 ,并且 预计 2026 年营收将达到 120 亿至 130 亿美元 。

究竟谁才是这些计算资源的客户?

等到所有运力建成时,他们有多大可能愿意购买这些资源? 虽然许多数据中心都声称在运营初期已有租户,但这些租户只有在数据中心建成后才能开始付费, 而且如果是人工智能初创公司,我认为质疑它们在数据中心建成时是否依然存在,是相当合理的。

请记住:人工智能计算服务的客户,绝大多数要么是试图将资本支出从资产负债表中剥离的超大规模云服务商,要么是尚未盈利的人工智能初创公司。Anthropic 和 OpenAI 都计划在未来几年烧掉数百亿美元,而且两者目前都尚未找到实现盈利的途径。

这意味着,人工智能计算业务的大部分收入——即便不是绝大多数——都依赖于风险投资和债务融资的持续流入,而这两者都只能依靠那些依然坚信生成式人工智能将成为世界上最大、最重大的事物的投资者来支撑。

这具体是怎么运作的?谁在为这部分数据中心容量买单?这是为谁服务的?实际需求在哪里?

如果真有这种需求, 那客户他妈的到底怎么付钱?

生成式人工智能既无利可图又难以持续,而且成本还在不断攀升

尽管有多个报道 预测这两家公司都将在 2028 年或 2029 年实现盈利,但没有人能向我解释 OpenAI 或 Anthropic 究竟如何实现盈利,尤其是考虑到这两家公司两家的利润率都低于预期, 即使剔除了高达数十亿美元的训练成本,情况依然如此。

我他妈的已经问这个问题好几年了。 每当我们收到关于 Anthropic 或 OpenAI 的新消息时,听到的总是他们亏损额比预期多出数十亿美元,利润率在萎缩,成本在飙升,一切都在变得更加昂贵尽管他们曾承诺情况会完全相反。

就连 Cursor 这家曾短暂宣称(在被马斯克的 SpaceX“伪收购” 之前)实现正毛利率的公司,实际上截至 1 月,其毛利率为负 23% 若计入非付费用户的成本,这一数字将降至负 31%——如果你真的在乎财务核算,就他妈的应该这么算。

蹊跷的是,报道称 Cursor 的毛利率 “最近转为正值”,但神奇的是却不知道具体转了多少,也不知道是怎么发生的,除了那个可能帮助公司被收购的细节外,其他任何细节都无从知晓。

我也看不出来这些 AI 数据中心究竟有什么意义,即使头几年有客户付费支持。

其经济模型建立在完美无缺的基础上,完全不具备容错性。它们必须保持稳定、100% 的利用率和租户覆盖率,否则最终将烧掉数百万美元,却无法撼动由科技行业最昂贵的错误所造成的、长达数年的折旧壁垒。

即便他们侥幸成功,这些也只是利润微薄的可怜生意——利润率顶多 70%,这还是在假设租金稳定、租户可靠, 以及需要整整六年折旧期才能回本的情况下。考虑到每年一次的升级周期,等你还清贷款时整套设备几乎已经过时了,要回本恐怕很难。

更不用说,其中大多数客户都是无利可图、难以维持的初创企业。

我真的不知道这一切会如何收场。

大型语言模型是骗人的,消费者一直被欺骗

我明白这听起来可能有些夸张,但我真心认为,基于订阅的 AI 服务是一种欺骗行为,其性质近乎欺诈——因为它们歪曲了核心单位经济模型,进而误导了人们对大型语言模型潜力的认知。 Anthropic 和 OpenAI 等公司通过按月收费向用户销售产品,并利用服务的可用性培养用户习惯,这种商业模式的误导性在于:大多数用户正在与产品互动并构建工作流程,而这些产品在当前形态下既不可持续,也无法维持。

Anthropic 的近期激进的限流调整是在开展多轮激进营销活动仅数月后实施的,而这些活动所依赖的用户体验,在当前限流政策下已几乎无法实现,且从 Anthropic 的近期举措来看,很明显该公司打算在未来某个时候开始取消面向月费 20 美元低端订阅用户的服务。

这种经营方式令人作呕且具有误导性,Anthropic 对其产品与服务的含糊表述是对每一位用户的侮辱,也表明该公司根本不把媒体当回事。

我必须非常明确地指出,由于最近的速率限制调整,Anthropic 目前提供的产品与大家在各处读到的那个版本有着本质上的不同(而且要差得多)。

Anthropic 明知这款产品三个月内就会消失,却仍刻意将其推向市场。达里奥·阿莫迪(Dario Amodei)根本不在乎,只要媒体继续大肆报道他今天凭空捏造出的数十亿年化营收,或是他推出的旨在摧毁某家倒霉的公共 SaaS 公司的所谓新产品——那家公司原本的增长就已经放缓了。

各位媒体同仁,我怀着无比的敬意说:Anthropic 正在苛待其客户,而它之所以如此行事,是因为它认为自己可以逍遥法外。这家公司并不尊重你们,事实上,它对你们怀有极度的蔑视,这也正是它既不愿迅速修复服务,也不愿以任何连贯的方式解释服务为何中断的原因。

这就是为什么 Anthropic 撒谎说 Claude Mythos 太强大而无法发布(实际上是容量问题),当事实上,这不过是又一个他妈的大语言模型空谈 ——因为它以为你会买下它推销的任何东西,而且它已经精准算计好如何包装,给你提供足够可信的 “证据”,让你和你的编辑只需快速浏览一下系统卡片,就会相信你所说的任何话。

他们也知道你会急于报道此事 ,而不是等待真正的专家发表看法。

人工智能是个骗局,而这个骗局是这样运作的。

人工智能是以人类所能达到的最快速度、以最低效却最易获取的形式被匆匆推出并强加给我们的,即使这种形式注定无法催生出任何类似可持续商业模式的东西。

媒体被催促着立即宣称这就是未来 以便让所有人都认同这就是当下的大趋势并尽可能多地使用它,而且,至关重要的是,以订阅制形式使用它,让人们在体验时根本不会去问提供这项服务究竟要花多少钱。

这种说法早已是既定论调。因为很少有讨论大型语言模型(LLMs)的人真正体会过其实际成本,所以 真的 很容易含糊其辞地说 “这就像优步一样”,因为优步是一家亏损严重却没倒闭的公司,说这话比说 “等等,你是什么意思?OpenAI 今年预计要亏损 50 亿美元?” 要容易得多

不妨这样想:无论你是记者、投资者、高管,还是 LinkedIn 上的常客,你或许零零散散地读到过 “每百万输入代币需花费 5 美元,每百万输出代币需花费 25 美元” 这样的说法,但你从未真正体会过这笔钱会以多快或多慢的速度流失——而亲身体验这一点,对于真正理解这款产品至关重要。

Anthropic 和 OpenAI 有意模糊了这种体验,并打造了预计在 2026 年烧掉数百亿美元、到 2030 年烧掉数千亿美元的业务——这一切都源于大多数人仅根据订阅服务体验来评判生成式 AI。

大型语言模型(LLMs)就像一家赌场,而你一直在用赌场的钱赌博,同时还鼓动人们押上自己的钱,赌他们能否从某个特定模型中获得一份成果。

这是故意的。他们从来就不希望你考虑成本问题,因为一旦你真正开始思考成本 整件事就会显得有点疯狂。 我坚信基于大型语言模型(LLM)的订阅模式终将彻底消失,至少在任何生成代码的产品层面是如此。届时,阿莫迪和阿尔特曼将结束他们的骗局,或者至少自以为已经结束了。

问题在于,这些人现在签下的协议实在太多,不可能就此全身而退。

OpenAI 的首席财务官现已多次表示她认为 OpenAI 尚未做好 IPO 准备,并对该公司的增长及其持续履行义务的能力存在重大担忧。 在此重申此前的一段引述 :

据知情人士透露,首席财务官莎拉·弗里尔已向公司其他高管表示,她担心如果营收增长不够快,公司可能无法支付未来的计算合同费用。

这简直是红灯闪烁的警报,在理性的市场中,这本会让甲骨文的股价一落千丈,因为 OpenAI 年收入突破 2800 亿美元,这对甲骨文能否避免资金链断裂至关重要。

在理性的媒体环境中,这本应在每个群聊和 Slack 频道中引发令人担忧的涟漪,人们纷纷讨论 OpenAI 究竟能否真正挺过去。

这就是一家公司走向衰亡前常会发生的情况。

恰恰在 OpenAI 最需要加速发展的时候,其增长却在放缓。 为了履行其义务,它必须在 2030 年前将当前业务规模扩大 10 倍。

OpenAI 的首席财务官——也就是最清楚内情的人——表示,她担心如果收入不增长,OpenAI 将无法支付那些该死的计算合同费用。 这是一盏闪烁的巨大警示灯! 这不是演习!

然而,真正让我感到担忧的是《华尔街日报》的一段评论,其中提到弗里尔认为 OpenAI“尚未准备好满足上市公司所需的严格信息披露标准。”

这他妈是什么意思? 恕我直言? 这家公司据称已融资 1220 亿美元,据称估值高达 8520 亿美元,并预计到 2030 年底将烧掉 8520 亿美元。难道它的账目有问题吗?OpenAI 无法满足哪些 “严格的报告标准”?

通常我不会这么多管闲事。要不是因为这家公司去年拿走了大约 20% 的风险投资,而且我走到哪儿都得听奥特曼、布罗克曼以及 OpenAI 其他那些人的无休止的吹牛,还有他们他妈的那些关于普通人该怎么做的狗屁主意 ——而他们自己却在四处招摇,发布垃圾软件,挥霍别人的钱。

以 Anthropic 和 OpenAI 消耗的资源量来看,这两家公司无论作为产品还是企业,都他妈的应该无可挑剔。

然而,两者却都是通过围绕其经济模式以及效能 ,通过混淆真相,让他们的首席执行官得以敛财、攫取权力并博取关注。

这既是对优质软件的侮辱,也是对良好品味的冒犯——它们是人类有史以来发明过的最昂贵、最不可靠的应用程序,其错误被宽恕,其平庸之处被歌颂,其基础设施更被奉若资本的无生命之神。

生成式人工智能是一种侮辱。它不可靠,其经济模式毫无逻辑,其成果无法证明其存在的价值,而制造这场骗局的人,则是一群与社会脱节、对任何持不同意见者都嗤之以鼻的无聊、粗鲁且贪婪之徒。

它需要从所有人那里窃取艺术,破坏环境,增加我们的电费账单,带来经济毁灭的持续威胁,以及 “现在一切都他妈的糟糕,都是因为 AI” 这种永无止境的喧嚣——这一切,只为推广一款软件,而只有那些愿意忽视基本财务常识或常识的人,才会为它辩护。

这一切都太贵了,而且都他妈的无聊透顶。无聊得令人反感。简直让人烦不胜烦。 每当有人向你大谈特谈他们如何使用人工智能时,听起来就像是身处一段虐待关系中,或者加入了某个邪教,言语间回荡着一种微妙的绝望,仿佛在说:“ 你真的得加入我,因为这太棒了,而我看似从这款产品中得不到任何快乐,恰恰证明了它的高效。” 人工智能所能做的事,毫无轻松愉悦可言。大型语言模型既不滑稽也不奇思妙想,每次交互都让人感到空洞无物。

那些拼命寻找证据,试图证明它正在获得意识或变得 “更强大” 的人,其实只是在寻求自我认同——他们渴望在某件事上抢得先机,因为得出与他人相同的结论,正是他们谋生的手段。

成为 “第一”——或者说站在 “前沿”——是人们在内心找不到归属时所渴望的,而这恰恰是骗子们梦寐以求的燃料,因为大型语言模型(LLMs)始终在嗡嗡作响,仿佛即将创造新事物,尽管从数学角度看,它们只能重复他人的行为。

这是一个令人深感悲哀的时代。那些曾如此积极地携手支撑这个行业的人们,只不过是延缓了它不可避免的衰落。 令我感到恐惧的是,我们的市场和部分经济正被一种普遍存在却完全未经证实的假设所支撑:即大型语言模型(LLMs)终将变得更便宜,人工智能初创企业会神奇地实现盈利,而提供人工智能计算服务将永远盈利,甚至到了必须在 2030 年前将当前供应量增加十倍的地步。

人们为了捍卫人工智能行业而自甘堕落,因为这就是该行业对其追随者的要求。 要成为一名 “AI 专家”,你必须主动忽视历史上任何行业中最糟糕的经济规律,不断为产品中显而易见、触目惊心的缺陷开脱,并积极说服他人也这样做。

OpenAI 和 Anthropic 从未明确说明它们将如何实现盈利,因为它们知道支持者们永远不会追问——毕竟,要完全 “相信 AI”,唯一的方法就是主动戴上眼罩。

我明白。如果你认为 OpenAI 和/或 Anthropic 终将倒闭,那么这一切听起来确实有些疯狂。我真心希望你能认真考虑这样一种可能性:这两家公司中的一家或两家都将面临资金耗尽的局面。

我真的很担心,而媒体和整个社会普遍表现出的漠不关心,更让我忧心忡忡。

如果非要我揣测的话,大概是认为我纯粹是在危言耸听,而且 “需求绝对是存在的”。

你最好希望你是对的。

至少是为了拉里·埃里森(甲骨文 CEO)着想。 埃里森已经质押了 3.46 亿股甲骨文股票 ——约合 615 亿美元——“以担保某些个人债务,包括各种信贷额度”,这意味着 “许多以他的甲骨文股票为抵押的大额贷款”。

据 IFR 去年 9 月估算( 当时甲骨文股价远高于现在 ) 估算,以(他们所说的 “保守”)20% 的贷款价值比,他最多可获得 214 亿美元的债务融资,而这还是假设银行并未特别慷慨的情况下。

如果 OpenAI 无法在 2030 年底前筹集到 8520 亿美元的营收和资金,它将无力承担 “星门” 项目的费用。这将导致甲骨文股票价值暴跌,进而引发一系列保证金追缴通知,迫使埃里森抛售股票,进而导致更多保证金追缴通知。无论是否会有任何纾困措施,都无法挽救拉里的遗产。

我的意思是,埃里森的未来取决于萨姆·阿尔特曼能否在 4 年内筹集资金并创造高达 8520 亿美元的收入。

祝你好运,拉里!你肯定会用得上的。