原封不動直傳美國?三星被曝因 ChatGPT 泄露芯片機密!

華爾街見聞
2023.04.03 06:07
portai
I'm PortAI, I can summarize articles.

數據顯示,3.1% 的打工人都會將企業內部數據直接輸入給 ChatGPT 分析。而這些企業數據中,有 11% 都是敏感數據。

三星引入 ChatGPT 不到 20 天,就發生 3 起數據外泄事件?!

其中 2 次和半導體設備有關,1 次和內部會議有關。

消息一經釋出馬上引發各界熱議,尤其是韓國方面。韓版《經濟學人》的文章中直接寫道:

這導致半導體設備測量資料、產品良率原封不動傳輸給了美國公司。

韓媒方面甚至表示,因為三星員工直接將企業機密信息以提問的方式輸入到 ChatGPT 中,會導致相關內容進入學習數據庫,從而可能泄漏給更多人。

據三星表示,為了避免這種情況再次發生,他們已經告知員工謹慎使用 ChatGPT。如果後面仍發生類似事故,將考慮禁止在公司內網上使用 ChatGPT。

看起來,三星這次又搞了個大新聞啊。

有網友將此戲稱為:xx 網盤存公司內部文件(doge)。

不過,也有網友發現了這件事詭異的地方。

他們是怎麼知道數據被泄露的?ChatGPT 這麼快就發佈了新版本嗎?

而當《經濟學人》記者向三星方面確認消息真實性時,相關負責人表示由於是公司內部事故,所以很難給出明確回覆。

目前,跟進該消息的主要是韓國媒體,所謂聊天內容是怎麼被加入到學習數據庫的,細節方面還有待推敲。

所以,真如報道所説,這些數據會被 ChatGPT 用於訓練、給更多人看到?

企業上傳到 ChatGPT 的數據究竟是否安全?

3.1% 打工人在給 ChatGPT 喂企業數據

三星這次引起熱議,關鍵點在於將內部半導體數據上傳給了 ChatGPT。

3 月 11 日,三星的半導體事業暨裝置解決方案事業部(DS)部門允許員工使用 ChatGPT,隨後 20 天內就發生了三起將公司內部半導體數據上傳到 ChatGPT 的事件:

其中,員工 A 用 ChatGPT 幫自己查一段代碼的 bug,而這段源代碼與半導體設備測量數據有關;員工 B 想用 ChatGPT 幫自己優化一段代碼,就直接將與產量和良品率記錄設備相關的一段代碼輸入了其中;

員工 C 則先用 AI 語音助手 Naver Clova 將自己的會議錄音轉成文字,再用 ChatGPT 幫他總結一下會議內容,做成摘要……

目前,三星內部已經採取了 “緊急措施”,限制與 ChatGPT 溝通的話題每個內容上傳量不超過 1024 bytes,還透露出要開發公司內部 AI 的意向。

然而,同樣值得注意的是,這些消息大多為韓國方面在跟進,OpenAI 尚未回應。

不過,在 OpenAI 上週更新的數據使用説明中確實有提到,對於非 API 產品如 ChatGPT、DALL-E,平台確實會使用用户數據來進一步提升模型效果。

如果是 API 類產品,則確定不會使用用户提交的數據。

而讓 ChatGPT 上傳企業數據的事兒,並不止三星一家公司員工幹過。

據統計,不少企業員工都正在將公司數據直接傳給 ChatGPT,讓它幫忙處理。

Cyberhaven 統計了160 萬名員工使用 ChatGPT 的情況,發現:

3.1% 的打工人都會將企業內部數據直接輸入給 ChatGPT 分析。

Cyberhaven 是一家數據分析服務提供商,他們開發了一個保護企業數據的方法,能幫助公司觀察和分析數據流向、實時瞭解數據丟失原因。

他們發現,隨着 ChatGPT 的應用率越來越高,給它上傳企業數據的打工人數量也越來越多。

光是一天之內(3 月 14 日),每 10 萬名員工就平均給 ChatGPT 發送了5267 次企業數據:

那麼這其中又有多少敏感數據呢?

數據顯示,在員工直接發給 ChatGPT 的企業數據中,有11%都是敏感數據。

例如在一週內,10 萬名員工給 ChatGPT 上傳了 199 份機密文件、173 份客户數據和 159 次源代碼。

上傳數據是一回事,並不意味着它就會被使用,但數據安全又是另一回事了。

ChatGPT 最近爆出的泄漏用户信息 bug,讓不少企業開始重視這一點。

ChatGPT 曾出過數據泄漏 bug

實際上,為了規避數據泄露風險,已有不少企業明確禁止員工使用 ChatGPT。

如軟銀、日立、富士通、摩根大通等都發出了相關通知。

同樣是芯片大廠的台積電也在幾天前表示,員工使用 ChatGPT 時不準泄露公司專屬信息,注意個人隱私。

還有意大利個人數據保護局也宣佈,禁止使用聊天機器人 ChatGPT,並限制開發這一平台的 OpenAI 公司處理意大利用户信息。

之所以會引來這些恐慌,一部分原因還得從 ChatGPT 自身説起。

3 月末,ChatGPT 被曝出現 bug 會導致用户對話數據、支付信息丟失泄露。

這一度導致了 ChatGPT 短暫關閉。

OpenAI 的回應中表示,這一漏洞可能導致了 1.2%ChatGPT Plus 用户的支付信息(包含用户姓名、郵件、支付地址、信用卡號最後四位及信用卡過期時間)被暴露了約 9 個小時。

漏洞還導致了用户的對話主題及記錄能被別人看到,如果裏面包含隱私信息,則有泄露的風險。

OpenAI CEO 山姆·奧特曼隨即回應,這個 bug 來自開源庫,他們使用這個庫在其服務器中緩存用户信息。

目前具體受到漏洞影響的用户數量還無法明確,OpenAI 表示已通知受影響用户其支付信息或被曝光。

但這種回應無法讓各方滿意。如意大利個人數據保護局就提出,OpenAI 沒有就收集處理用户信息進行告知,缺乏收集和存儲個人信息的法律依據。

由此要求 OpenAI 公司必須在 20 天內通過其在歐洲的代表,通報公司執行保護局要求而採取的措施,否則將被處以最高 2000 萬歐元或公司全球年營業額 4% 的罰款。

如今,隨着三星被曝因 ChatGPT 發生數據泄露,也引發了進一步討論。

比如不少人在使用 ChatGPT 時,確實沒有很強的隱私保護意識。

以及如今隨着越來越多企業使用 ChatGPT,相關使用規則也需要進一步明確。內置了 ChatGPT 的微軟產品,會不會也要禁止?

對此,你怎麼看呢?

本文作者:明敏、蕭簫,來源:量子位,原文標題:《三星被曝因 ChatGPT 泄露芯片機密!韓媒驚呼數據「原封不動」直傳美國,軟銀已禁止員工使用》

風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。