叫板 ChatGPT!AI 作畫鼻祖 Stability AI 也推出大型語言模型

華爾街見聞
2023.04.20 06:32
portai
I'm PortAI, I can summarize articles.

AI 領域 “當紅炸子雞” Stability AI 發佈開源大語言模型 StableLM,稱在聊天和編程方面都展現了 “驚人的高性能”。

或許每一次歷史潮流的開場,總是這麼熙熙攘攘,年初被 ChatGPT 引爆的 AI 大型語言模型 (LLM),又迎來一位重磅入局者——Stability AI。

4 月 19 日,推出火爆 AI 繪畫賽道 Stable Diffusion 的開源模型的公司 Stability AI,宣佈 “加入戰局,叫板 ChatGPT”,推出開源大語言模型 StableLM。

在 Stability AI 公告大語言模型的網頁上,一隻體現了 Stable Diffusion XL 作畫特點的綠鸚鵡先於語言大模型的介紹出現了,大語言模型的"Stable Diffusion” 時刻或許就這樣不期而至。

對於大語言模型 StableLM,網站介紹道:

目前 StableLM 的 Alpha 版本中擁有 30 億和 70 億參數。

已經可以從 GitHub 等開源平台上下載:https://github.com/stability-AI/stableLM/

Stability AI 後續還將推出 150 億至 650 億參數的版本。

與 Stable Diffusion 類似,開發者可以在遵守協議的情況下,將這個模型用於商業或研究活動。

抨擊 OpenAI 不夠 “open” 的 Stability AI,能穩定發揮,推出超越 ChatGPT 的大語言模型嗎?

大語言模型的 “安卓時刻”

Stability AI 成立於 2019 年,是生成式 AI 領域最知名的公司之一。

在 ChatGPT“佔領” 的大語言模型市場上,不少人期待着類似 Stable Diffusion 的開源模型能儘快出現。

大語言模型的"Stable Diffusion” 時刻可能在十幾個小時前到來了。

AI 軍備競賽的開啓可以追溯到去年 7 月,在 Open AI 的繪畫模型 DALL- E2 之後,Stability AI 發佈的模型圖像生成模型 Stability Diffusion,因其源代碼開源,且對公眾開放使用,在當時吸引了更多的注意力(使用 DALL-E2 需要申請,通過率很低)。

Stability AI 把 StableLM 的發佈比作了 Stability Diffusion,這讓 AI 可以繼續服務所有人:

2022 年,Stability AI 推動了 Stable Diffusion 的公開發布,這是一款革命性的圖像模型,代表了透明、開放、可擴展的 AI。

這次我們發佈開源 StableLM 模型,想繼續讓所有人都能使用 AI。

我們的 StableLM 模型可以生成文本和代碼,並將支持一系列下游應用。

正如 Stability AI 的 CEO Emad Mostaque 所説,他們最新發布的 LLM 代表着 Stability AI 的初心 “開源”:

現在每個人都可以在 Hugging Face 上測試驅動這個 7B 版本的聊天機器人。

Emad Mostaque 認為,LLM 不應在大公司內部進行訓練,社區系統的開放性也至關重要,需要更多監督,巨頭控制流量算法的遊戲規則——是對人們的操縱。

Emad Mostaque 來源:Stability AI

因此,Stability AI 在今年年初與 Hugging Face 等幾個初創公司一起資助了研究中心 Eleuther AI,而 StableLM 便建立在 Eleuther AI 的開源模型上:

StableLM 建立在我們與非營利性研究中心 EleutherAI 一起開源的早期語言模型基礎上,這些語言模型包括 GPT-J、GPT-NeoX 和 Pythia 等等。

此次大模型也是在 The Pile 開源的數據集上進行的訓練,該數據集結合了 PubMed、StackExchange 和維基百科等網站的的文本樣本,其規模是 The Pile 的三倍,包含 1.5 萬億個內容標記。

Stability AI 表示,正式因為這個豐富的數據集,儘管參數規模和 GPT-3 沒有可比性,但StableLM 在交流和編程方面都展現了 “驚人的高性能”(surprisingly high performance ):

儘管 StableLM 參數規模只有 30 億至 70 億(相比之下,GPT-3 有 1750 億參數),但性能非常好,下面是例子:

在這個例子裏,StableLM 回到了有關 “對於從高中畢業的朋友你回説些什麼?” 以及 “寫一封郵件” 的請求。

在這個例子裏要求該模型寫一個 “計算生命意義的 C 語言程序”,但該模型表示無法完成此項任務,但寫了一個計算生命長度的程序。

Mostaque 在 Twitter 上表示,他相信 StableLM 及其訓練數據會隨着時間而變得更好,沒有人知道這個模型可以被優化到什麼程度:

我知道現在還有很長的路要走,這只是一個開始。我認為我們可以在接下來的 3-6 個月內讓該模型變得和 Stable Diffusion 一樣有用,而在接下來的幾年裏,發展將是驚人的。

OpenAI不夠OpenStability AI夠穩嗎

前不久,馬斯克批評 Open AI 背離了開源、非盈利的初衷,這是 Open AI 一直以來面臨的爭議,也是 Stability AI“暗戳戳” 的諷刺 OpenAI 的要點。

儘管 OpenAI 不夠開放,但 GPT-4 無疑是當下最好用的大語言模型。而夠開放的 Stability AI,其語言模型 StableLM 夠穩嗎。

要知道,目前 StableLM 的 Alpha 版本擁有 30 億和 70 億參數,而 GPT-3.5 模型的參數量為 2000 億。

有網友稱,Stability AI 並沒有在公告上説明 StableLM 當前的侷限性。

該模型是否存在與其他模型一樣傾向於編造事實?是否會經常答非所問?

媒體分析認為,該模型基於 The Pile 訓練,而 The Pile 數據集內存在大量不雅用語,因此對話過程可能會讓用户不適。

還有網友表示,他嘗試在 Hugging Face 上測試這些模型,但每次都遇到 “滿負荷” 的問題,無法成功在前端上運行,這很可能與模型的大小及受歡迎的程度有關。

“大語言模型是否應該開源” 也成了近期爭論的焦點。有研究人員認為,類似 StableLM 等開源模型的發佈,很可能被用於,發送釣魚信息或協助惡意軟件攻擊等不良目的。

但 Stability AI 認為,開源模型的出現可以協助研究人員識別潛在風險,並制定一些列保護措施。

Stability AI 的營收困境

更嚴重的問題是,Stability AI 或許正面臨營收困境。

最近有媒體報道稱,Stability AI 正在以驚人的速度燒錢,但卻沒有明確的盈利途徑。而且在競爭激烈的 AI 賽道,還面臨着一眾初創企業和科技巨頭的 “圍剿”。

Meta 此前發佈開源大語言模型 LLaMA,使得越來越多的公司有望在開源模型基礎上定製自己的大模型,人工智能也正在迎來 “安卓時刻”。

Stability AI 現在正在尋找新的高管人才,希望他能在惡劣的條件下給公司帶來收入,以解決當前 “瘋狂燒錢、營收可憐” 的窘況。

去年底,Stability AI 宣佈融資 1.01 億美元,並稱 Stable Diffusion 已成為當前可用性最高的開源模型。

據《福布斯》的數據,每天約有有 1000 萬人使用 Stable Diffusion——比使用 OpenAI 的 DALL-E 2 的人數還要多。同時,Stability AI 還提供面向消費者的產品——DreamStudio, 目前擁有來 100 萬名註冊用户。

但訓練模型所需的計算資源和成本讓 Stability AI不得不探索新商業模式。Mostaque 曾在 Twitter 上回復一位用户時説:

實際上,我們模型使用了 256 個 A100 顯卡,總共 15 萬小時,所以按市場價格計算為 60 萬美元。

Stability AI 去年融到的 1 億美元至今已經 “燒” 掉大半。

還有一個不可忽略的事實是,其競爭對手 Midjourney 已經成為互聯網上事實上的圖像生成模型的領跑者,甚至一定程度上擊敗了 OpenAI 的 DALL-E。

當前,有消息稱,Stability AI 正在謀求新一輪融資,希望能將公司的估值漲至 40 億美元。Stability AI 能否扭轉局面,籌集到足夠的資金來維持局面,還有待觀察。