
AI needs to be able to self-improve! More and more people in the AI community believe that "current AI training methods cannot break through."

眾多 AI 研究人員認為,開發者必須創造出能在部署後持續獲取新能力的 AI,這種 “持續學習” 能力類似人類的學習方式,但目前尚未在 AI 領域實現。當前的技術路徑可能無法實現生物學、醫學等領域的重大突破,引發行業對數十億美元投資方向的質疑。
來自 OpenAI、谷歌等公司的小部分但日益增長的 AI 開發者羣體認為,當前的技術路徑無法實現生物學、醫學等領域的重大突破,也難以避免簡單錯誤。這一觀點正在引發行業對數十億美元投資方向的質疑。
據 The Information 週二報道,上週在聖地亞哥舉行的神經信息處理系統大會(NeurIPS)上,眾多研究人員討論了這一話題。他們認為,開發者必須創造出能在部署後持續獲取新能力的 AI,這種 “持續學習” 能力類似人類的學習方式,但目前尚未在 AI 領域實現。
這些質疑聲與部分 AI 領袖的樂觀預測形成對比。Anthropic 首席執行官 Dario Amodei 上週表示,擴展現有訓練技術就能實現通用人工智能(AGI),OpenAI 首席執行官 Sam Altman 則認為兩年多後 AI 將能自我改進。但如果質疑者是對的,這可能令 OpenAI 和 Anthropic 明年在強化學習等技術上投入的數十億美元面臨風險。
儘管存在技術侷限,當前 AI 在寫作、設計、購物和數據分析等任務上的表現仍推動了收入增長。OpenAI 預計今年收入將增長兩倍以上至約 130 億美元,Anthropic 預計收入將增長逾 10 倍至約 40 億美元。
核心爭議:AI 能否像人類一樣學習
亞馬遜 AI 研究部門負責人 David Luan 明確表示,“我敢保證,我們今天訓練模型的方式不會持續下去。” 多位參加 NeurIPS 的研究人員也表達了類似觀點,認為實現類人 AI 可能需要全新的開發技術。
OpenAI 聯合創始人兼前首席科學家 Ilya Sutskever 上月表示,當前一些最先進的 AI 訓練方法無法幫助模型泛化,即處理包括未曾遇到過主題在內的各種任務。在醫學領域,持續學習可能意味着 ChatGPT 能識別醫學文獻中不存在的新型腫瘤,而非需要在大量先例上訓練。這將使其表現得像能基於單一案例發現規律的人類放射科醫生。
在 NeurIPS 的主題演講中,阿爾伯塔大學教授 Richard Sutton——被稱為強化學習之父——同樣表示,模型應能從經驗中學習,研究人員不應試圖通過人類專家創建的大量專業數據來提升模型知識。他認為,當人類專家達到知識極限時,AI 的進步就會 “最終受阻”。相反,研究人員應專注於發明能在處理實際任務後從新信息中學習的 AI。
技術突破嘗試與現實障礙
NeurIPS 上展示的多篇重要研究論文探討了這一主題。麻省理工學院和 OpenAI 的研究人員提出了 “自適應語言模型” 新技術,使大模型能利用現實世界中遇到的信息獲取新知識或提升新任務表現。
例如,當 ChatGPT 用户要求分析此前未見過的醫學期刊文章時,模型可能將文章改寫為一系列問答,用於自我訓練。下次有人詢問該主題時,它就能結合新信息作答。部分研究人員認為,這種持續自我更新對能產生科學突破的 AI 至關重要,因為它將使 AI 更像能將新信息應用於舊理論的人類科學家。
然而,技術侷限已拖慢企業客户對 AI 代理等新產品的採購。模型在簡單問題上持續犯錯,AI 代理在缺乏 AI 提供商大量工作確保其正確運行的情況下往往表現不佳。
商業影響:收入增長與投資風險並存
如果 Luan 和 Sutskever 等質疑者的觀點正確,這可能令開發者明年在強化學習等流行技術上的數十億美元投資受到質疑,包括支付給 Scale AI、Surge AI 和 Turing 等協助此類工作的公司的費用。Scale 發言人 Tom Channick 對此不同意,稱使用持續學習的 AI 仍需要從人類生成數據以及 Scale 提供的強化學習產品中學習。
儘管如此,即便沒有新突破,AI 開發者似乎也能產生大量收入。OpenAI 和 Anthropic 三年前幾乎沒有收入,如今從聊天機器人和 AI 模型銷售中獲得可觀營收。開發 AI 應用的其他初創公司,如編碼助手 Cursor,預計未來一年將集體產生超過 30 億美元的銷售額。
行業競爭:谷歌反超引發動盪
研究人員還討論了大型開發者之間的 AI 競賽。谷歌的技術在某些指標上已超越競爭對手,Altman 已告訴 OpenAI 準備迎接"艱難氛圍"和"暫時的經濟逆風"。
在與谷歌 AI 團隊的問答環節中,多位與會者詢問該團隊如何改進預訓練流程——這正是 OpenAI 今年大部分時間都在努力解決的問題。谷歌研究副總裁 Vahab Mirrokni 表示,公司改進了用於預訓練的數據組合,並找到了更好管理數千個谷歌設計的張量處理單元的方法,從而減少了硬件故障對模型開發流程的干擾。
OpenAI 領導層最近表示,他們已能類似地改進預訓練流程,開發出代號為 Garlic 的新模型,相信未來幾個月能與谷歌競爭。
