GPT-4 据说比 ChatGPT 强大,但 OpenAI 不说原因

Wallstreetcn
2023.03.15 01:31
portai
I'm PortAI, I can summarize articles.

更出色的新一代人工智能来了,能读图、会解题、擅长考试,但 OpenAI 也彻底 “变味儿” 了。

引领全球人工智能热潮的 OpenAI,终于推出了它的新一代多模态模型GPT-4。

新一代模型能够同时接收图像和文本输入,比上一代模型 GPT-3.5(ChatGPT 的技术基座)参数更多、更安全,“比以往更具创造性和协作性”,并且 “由于它有更广泛的常识和解决问题的能力,可以更准确地解决难题。”

这一次的发布,也比以往更加神秘,OpanAI 没有公布 GPT-4 相关技术细节,标志着该公司从非营利性研究实验室向营利性技术公司的全面转变。

更出色的人工智能

GPT-4 在安全性和精确性上都有巨大的提升。

OpenAI 称,GPT-4 比 GPT-3.5 对受限制请求做出回应的可能性低 82%,编造内容的可能性低 60%。

更重要的是,不同于 ChatGPT 仅能接收文本输入,GPT-4 可以响应图片。向它展示一张冰箱里东西的照片,然后问它能做什么饭,GPT-4 会尝试用照片上的原料生成菜谱。

给它一张气球被线拴在地上的图片,然后提问如果把线割断会发生什么,GPT-4 会回答 “气球会飞走”。

此外,OpenAI 的新模型在基本推理方面的表现比 ChatGPT 更好,可以解决更复杂的难题。

据媒体拿到的演示版本,GPT-4 能够用字母 “g” 开头的单词概括 OpenAI 的公司简介:

“GPT-4, groundbreaking generational growth, gains greater grades. Guardrails, guidance, and gains garnered. Gigantic, groundbreaking, and globally gifted.”

GPT-4 在美国律师执照考试(UBE)上的表现也远超 GPT-3.5,GPT-3.5 的得分是倒数 10%,而 GPT-4 是前 10%。

AI 初创公司 Hugging Face 联合创始人 Thomas Wolf 对媒体称,理论上,结合文本和图像的多模态模型能够更好地理解世界:

“它可能能够解决语言模型的传统弱点,如空间推理,”

艾伦人工智能研究所的 Oren Etzioni 对媒体表示:

“GPT-4 现在是评估所有 AI 模型的基准,它在许多方面的提升都非常显著。”

一家变味儿的公司

然而,和之前发布 GPT-3、2 的时候不一样,OpenAI 这次没有透露 GPT-4 有多大,也没说它是如何打造的——没有透露数据、计算能力或训练技术。只是模糊地说,GPT-4 的参数更多,是一个更大的模型。

以前,OpenAI 会公开这些数据,给同行参考,比如 GPT-2 有 15 亿个参数,性能更好的 GPT-3 参数是它的 100 倍。

Wolf 对媒体抱怨道:

“OpenAI 现在是一家完全封闭的公司,科学交流类似于产品的新闻发布,”

竞争变得更加激烈了,Google 旗下 DeepMind 的多模态模型 Flamingo 在急起直追,其他互联网巨头也都正在 AI 上发力。OpenAI 如今是一家背靠微软、寻求赚钱的营利机构,而不是一家纯粹的人工智能研究所了。

GPT-4 的早期版本已经在微软产品中上线。OpenAI 还开放了 API 接口,让机构商用。目前,已经有支付平台 Stripe、语言学习平台多邻国、摩根士丹利和冰岛政府(冰岛试图使用 GPT-4 来保护冰岛语言)等多家机构前来寻求合作。

GPT-4 的访问权限将优先提供给注册过等候名单的用户以及付费购买 ChatGPT 会员的用户,但目前仅限于文本输入。