你是否曾注意過公司內有多少員工正習慣性地將內部報表、會議記錄語音、未公開的程式碼或客戶名單,直接貼上ChatGPT或Gemini進行潤飾或分析?以色列網路安全公司LayerX Security指出,18%的使用者會將資料貼到生成式AI工具中,其中約50%是公司內部資訊。2023年Samsung剛導入ChatGPT不到一個月,就接連發生三起半導體機密外洩事件,而外洩的資料最終成為了OpenAI模型訓練的內容。這起事件不僅震驚業界,更讓Apple等各大企業在當時下達了生成式AI禁用令。

有句名言「如果你不用付錢,你就是商品」。延續著這項認知,過往人們對軟體服務的既有概念是,使用者付費就能擁有軟體服務與其對應的資料隱私保障。數十年來,企業員工使用商業軟體執行各種業務,無論是一般性或機敏性內容,員工對它的忠誠與隱私毫不懷疑。但隨著近年線上軟體服務與AI混合應用的盛行,這條關於付費與隱私的界線已逐漸模糊。

對於企業而言,員工每一筆資料與智慧的累積,都將成為未來企業在市場上生存的基石,而在生成式AI的時代中,員工每天與AI的業務對談,究竟是買來的服務商品,還是免費奉送給軟體公司的訓練材料?

付費訂閱,不等於買到「隱私豁免權」

許多人對於生成式AI服務存在一個嚴重的誤會-認為免費使用可能會洩漏資料,一旦付費訂閱後,這些公司應該會盡責保護對話內容與上傳資料。但事實上,一般個人使用者在運用個人付費版的生成式AI服務時,每月付給軟體公司的訂閱費是優先使用AI運算能力的使用費,而不是使用者資料的隱私保護費。

以主流的幾個生成式AI服務如ChatGPT(OpenAI)、Gemini(Google)、Claude(Anthropic)為例,針對一般個人使用者,無論是否付費訂閱,皆預設將使用者的文字/語音/附件等對話內容用於進行模型訓練與系統開發/人工檢核使用,因此若上傳機敏資訊,將可能被軟體公司的人類審查員瀏覽,進而導致職業機密被第三者得知;或成為AI訓練資料集的一部分,當初上傳的機敏資訊,將可能永久地成為AI大腦裡的其中一段索引知識,並在第三方的提問中被無意間洩漏。

企業版與教育版雖然在法律層面,擁有對話與資料不會作為AI軟體開發商資料素材的保證,但其對話資料仍可能在受雇者企業內部或教育單位之資訊部門審核留存。為此,員工仍須注意使用企業版AI對談期間上傳資料與對答內容的妥適性。企業管理者同時須留意「影子AI(Shadow AI) 」的存在,避免員工在未經資訊部門批准的情況下,私下使用未受企業監管之一般個人版AI服務來處理職務需求。培養員工僅將企業資料傳輸至企業版AI服務的習慣,以降低機密資料外洩疑慮。

圖1:企業與個人版AI之資料治理差異
圖片來源:作者自行彙整OpenAI、Google、Anthropic服務條款,本文資料更新時間2026/03/31,AI服務商隱私條款變動頻繁,請以最新版條款為依據

企業導入生成式AI的三道資安防線

當AI已成為不可逆的生產力趨勢,企業應建立完善的AI資料治理機制。建議可依循下列三方向建立資安防線。

第一道防線 基礎建設管理:採購企業級生成式AI服務

若企業業務高度依賴機敏資料,應優先考慮將AI工具升級為具備合約保障的企業版服務。集中管理各業務部門之存取權限,提升整體資訊系統的可控性,進而達成保護企業核心競爭力的目的。

第二道防線 制度與規範:制定員工版生成式AI使用準則與案例教育訓練

在尚未全面導入企業版之前,企業可透過內部政策與網路設定,明文規定各等級的資料取用規則,並限制外部的軟體服務平台傳輸。惟若單獨以文書布達規範,員工易因資訊理解能力程度落差而降低實行效果。建議應以實務應用案例辦理內部講座或測驗,強化員工對於生成式AI應用方法的良好意識。

第三道防線 實務操作:落實個人版AI服務隱私設定

對於需使用個人版生成式AI服務處理公務之員工,企業可透過新增公司內規,以及加強教育訓練,要求員工落實以下三項防護操作:

1.    手動選擇不同意改善模型、關閉應用程式活動紀錄:若對話內容長期有機密隱私需求,直接將系統預設的訓練權限關閉會較為簡便。多數服務商雖預設讀取使用者資料訓練,但使用者仍可以手動在隱私設定中關閉訓練/語音訓練授權,停止提供資料給服務商。

但也有部分服務(如Gemini)將系統活動紀錄功能與訓練授權綁定,只要開啟活動紀錄即同意對話與互動資料提供給Google進行模型訓練或人工審查,此時就須考慮關閉或刪除應用程式活動紀錄。在關閉或刪除應用程式活動紀錄後,Gemini將不提供記錄歷史對話的功能,不僅不會記錄新增的對話內容,連過去的所有歷史對話紀錄都會被刪除而消失,如果有特別希望留存的對話內容,需另外逐筆複製留存至電腦或自有雲端硬碟中。

2.    善用隱私對話/臨時對話功能:適用於偶爾須保護資料的使用情境,多數生成式AI對話介面的右上角不明顯處,會有「隱私對話」圖示,按下後會開啟臨時視窗,在此臨時視窗中的資料將不會被服務商作為訓練用途,使用者關閉視窗後對話紀錄即消失不做留存。但依軟體服務商不同,對話紀錄仍會被留存在服務商系統資料中72小時至30天不等。

3.    僅上傳去識別化/去機敏之局部資料:本措施適用於各種隱私設定狀態,可作為通用性的AI應用習慣基礎。企業應要求員工在提供AI參考資料前,僅上傳該次處理所需的部分頁面或文章段落,讓附件資料在上傳前就已經先完成去機敏/去個資/去識別化,避免將整份未經處理的內部原始資料直接上傳,免去不必要的資訊提供與流出。

從效率工具到風險防線,企業AI治理的必修課

生成式AI的普及確實為企業帶來前所未有的生產力革命,但同時也伴隨著隱形的營業機密外洩風險。網路安全公司LayerX Security提到,企業必須實施兼具彈性且符合應用情境的資安措施,才能在不犧牲生產力的前提下,讓員工安全地運用 AI。企業管理者應建立「個人版的AI工具資料安全防護不足,需針對企業使用需求擬定相應對策」的新風險常態認知。除了考慮升級企業版系統服務以外,更應即刻建立內部的生成式AI使用規範、落實員工的資料去識別化教育訓練。唯有在安全可控的護城河內,企業才能真正將AI的對話與運算資源,轉化為推動業績增長的強大引擎。

本文作者為資策會數位轉型研究院金融科技中心王馨曼

發表迴響