原封不动直传美国?三星被曝因 ChatGPT 泄露芯片机密!

Wallstreetcn
2023.04.03 06:07
portai
I'm PortAI, I can summarize articles.

数据显示,3.1% 的打工人都会将企业内部数据直接输入给 ChatGPT 分析。而这些企业数据中,有 11% 都是敏感数据。

三星引入 ChatGPT 不到 20 天,就发生 3 起数据外泄事件?!

其中 2 次和半导体设备有关,1 次和内部会议有关。

消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:

这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。

韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到 ChatGPT 中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。

据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用 ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用 ChatGPT。

看起来,三星这次又搞了个大新闻啊。

有网友将此戏称为:xx 网盘存公司内部文件(doge)。

不过,也有网友发现了这件事诡异的地方。

他们是怎么知道数据被泄露的?ChatGPT 这么快就发布了新版本吗?

而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。

目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。

所以,真如报道所说,这些数据会被 ChatGPT 用于训练、给更多人看到?

企业上传到 ChatGPT 的数据究竟是否安全?

3.1% 打工人在给 ChatGPT 喂企业数据

三星这次引起热议,关键点在于将内部半导体数据上传给了 ChatGPT。

3 月 11 日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用 ChatGPT,随后 20 天内就发生了三起将公司内部半导体数据上传到 ChatGPT 的事件:

其中,员工 A 用 ChatGPT 帮自己查一段代码的 bug,而这段源代码与半导体设备测量数据有关;员工 B 想用 ChatGPT 帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;

员工 C 则先用 AI 语音助手 Naver Clova 将自己的会议录音转成文字,再用 ChatGPT 帮他总结一下会议内容,做成摘要……

目前,三星内部已经采取了 “紧急措施”,限制与 ChatGPT 沟通的话题每个内容上传量不超过 1024 bytes,还透露出要开发公司内部 AI 的意向。

然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI 尚未回应。

不过,在 OpenAI 上周更新的数据使用说明中确实有提到,对于非 API 产品如 ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。

如果是 API 类产品,则确定不会使用用户提交的数据。

而让 ChatGPT 上传企业数据的事儿,并不止三星一家公司员工干过。

据统计,不少企业员工都正在将公司数据直接传给 ChatGPT,让它帮忙处理。

Cyberhaven 统计了160 万名员工使用 ChatGPT 的情况,发现:

3.1% 的打工人都会将企业内部数据直接输入给 ChatGPT 分析。

Cyberhaven 是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。

他们发现,随着 ChatGPT 的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

光是一天之内(3 月 14 日),每 10 万名员工就平均给 ChatGPT 发送了5267 次企业数据:

那么这其中又有多少敏感数据呢?

数据显示,在员工直接发给 ChatGPT 的企业数据中,有11%都是敏感数据。

例如在一周内,10 万名员工给 ChatGPT 上传了 199 份机密文件、173 份客户数据和 159 次源代码。

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

ChatGPT 最近爆出的泄漏用户信息 bug,让不少企业开始重视这一点。

ChatGPT 曾出过数据泄漏 bug

实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用 ChatGPT。

如软银、日立、富士通、摩根大通等都发出了相关通知。

同样是芯片大厂的台积电也在几天前表示,员工使用 ChatGPT 时不准泄露公司专属信息,注意个人隐私。

还有意大利个人数据保护局也宣布,禁止使用聊天机器人 ChatGPT,并限制开发这一平台的 OpenAI 公司处理意大利用户信息。

之所以会引来这些恐慌,一部分原因还得从 ChatGPT 自身说起。

3 月末,ChatGPT 被曝出现 bug 会导致用户对话数据、支付信息丢失泄露。

这一度导致了 ChatGPT 短暂关闭。

OpenAI 的回应中表示,这一漏洞可能导致了 1.2%ChatGPT Plus 用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约 9 个小时。

漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。

OpenAI CEO 山姆·奥特曼随即回应,这个 bug 来自开源库,他们使用这个库在其服务器中缓存用户信息。

目前具体受到漏洞影响的用户数量还无法明确,OpenAI 表示已通知受影响用户其支付信息或被曝光。

但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI 没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。

由此要求 OpenAI 公司必须在 20 天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高 2000 万欧元或公司全球年营业额 4% 的罚款。

如今,随着三星被曝因 ChatGPT 发生数据泄露,也引发了进一步讨论。

比如不少人在使用 ChatGPT 时,确实没有很强的隐私保护意识。

以及如今随着越来越多企业使用 ChatGPT,相关使用规则也需要进一步明确。内置了 ChatGPT 的微软产品,会不会也要禁止?

对此,你怎么看呢?

本文作者:明敏、萧箫,来源:量子位,原文标题:《三星被曝因 ChatGPT 泄露芯片机密!韩媒惊呼数据「原封不动」直传美国,软银已禁止员工使用》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。