“我们将努力遵守,但如果我们无法做到合规,我们将停止运营。”
OpenAI 首席执行官 Sam Altman 警告说,欧盟的 AI 监管新规可能会迫使 OpenAI 撤出欧洲市场。
当地时间周三,Altman 在伦敦大学学院的一个活动间隙表示,他对欧盟正在酝酿的《人工智能法案》有 “很多担忧”。
他特别提到欧洲议会本月通过的授权草案,该草案可能会把 GPT-4 等大型语言模型列入 “高风险” 系统名单,并计划为其建立风险管理系统。OpenAI 此前曾辩称,其通用系统本身并不具有高风险。
“这里的细节确实很重要,” Altman 说,“我们将努力遵守,但如果我们无法做到合规,我们将停止运营......我们会尝试,但可能存在技术限制。”
Altman 还说,他已经与欧盟监管机构会面讨论人工智能法案,并补充说 OpenAI 对该法案目前的措辞提出了很多批评。
在当天早些时候的一次台上采访中,Altman 对媒体表示,他更偏好介于传统的欧洲和美国之间的监管方式。
不止 OpenAI,谷歌等美国大型科技公司最近频繁出访欧洲各国,试图就监管问题影响欧盟决策层。
据英国《金融时报》周四报道,谷歌首席执行官 Sundar Pichai 本周在布鲁塞尔会见了欧盟高官,包括负责人工智能法案的主要欧洲议会议员 Brando Benifei 和 Dragoş Tudorache。三位与会人士表示,Pichai 强调需要对 AI 进行适度监管。
Pichai 还会见了负责监督人工智能法案的欧盟数字主管 Thierry Breton。Breton 告诉英国《金融时报》,他们讨论了引入 “人工智能公约”——一套非正式的指导方针,供人工智能公司在规定正式生效之前遵守。
欧盟《人工智能法案》最初旨在监管人工智能的特定、高风险用途,但 ChatGPT 的爆火引发了新的思考,今年 5 月初,欧洲议会通过了《人工智能法案》提案的谈判授权草案,向更严厉的 AI 监管迈出关键一步。
新规要求 AI 大模型开发商识别并降低其技术在应用中可能带来的风险,并要求他们对其使用方式承担部分责任。除此以外,新规还要求他们提交用于训练 AI 模型的受版权保护的数据文件,方便用户后续启动索赔程序。
该法案预计于 2025 年生效,今年 6 月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。