上個月陪一家做 PCB 板的老闆開內部會議,討論要不要讓業務用 AI 幫忙寫報價單。快散會的時候,他問了一句:「我讓員工用 ChatGPT,客戶的報價資料有沒有問題?」

會議室很安靜。沒人知道怎麼答。

這問題問得好。但大多數中小企業主問得太晚。

真正的風險,不是駭客,是你的員工

這不是在怪員工。我是說,企業導入 AI 之後,第一個破口往往不是什麼技術漏洞、不是有人攻擊你的伺服器——是業務小李,為了省時間,把完整的客戶報價單貼進 ChatGPT,請它幫忙「整理成一頁 PDF」。

這件事每天在發生。不只是一家公司。

我陪跑過的企業裡,有一家做精密機械的,有一天業務主管傳給我一段截圖,是員工跟 AI 的對話紀錄,內容包含某日系大廠的採購規格、議價歷史、和他們的報價策略。那個員工沒有惡意,只是在找靈感。

對方大廠如果知道,合約可能直接不續。

資料去哪了,你搞清楚了嗎

使用免費版 ChatGPT 時,你輸入的內容,依 OpenAI 的預設設定,是可以被用於模型訓練的。除非你付費、進到設定把訓練選項關掉,或是用 API 方式呼叫(API 預設不用於訓練)。

Claude 的情況類似,不同方案、不同呼叫方式,資料處理政策不一樣。

其實只有一個問題要問清楚:這家 AI 服務商,拿走我的資料之後,會做什麼?

大公司有法務部門會去看服務條款、簽 DPA(資料處理協議)。中小企業通常沒有這個資源,老闆也不一定知道這件事要問。

所以我每次進場輔導,第一件事不是裝 Claude Code、不是設計流程,而是問:你現在有幾個人在用 AI,他們用什麼,用在哪些工作上。

大多數老闆不知道答案。

影子 AI,才是現在最燒的問題

有個詞叫 shadow AI(影子 AI)。定義很簡單:員工自己去下載、去用,但公司沒有批准、也沒有管理的 AI 工具。

Salesforce 的調查顯示,超過 55% 的員工在使用公司未授權的 AI 工具。台灣中小企業普遍沒有 IT 政策,「沒有禁止就等於可以用」是員工的邏輯。

怎麼處理影子 AI?

有幾個方向。

第一,不要用「禁止」當唯一答案。禁止之後員工會偷用,你更不知道。比較實際的做法是:提供一個公司認可的 AI 方案,設定清楚哪些資料可以貼進去、哪些不行。

第二,建立「資料分類」的基本認知。不需要複雜,最簡單就是兩類:公開資訊可以用 AI 處理;敏感資訊(客戶資料、報價、合約、財務)不要貼進任何外部 AI。這個規則只要講一次、貼在茶水間,效果就有。

第三,如果要用 AI 處理敏感業務,考慮本地部署或私有雲。我陪的幾家製造業客戶,現在用 Ollama 在自己機器上跑本地模型,資料完全不出去。犧牲的是速度跟能力,換來的是「自己的資料留在自己這裡」的確定感。

易經有一卦,叫需

需卦,坎上乾下。坎是水,乾是天——雲等待下雨。

卦辭說:有孚,光亨,貞吉,利涉大川。

我第一次把這卦拿來解 AI 導入的脈絡,是在陪一個電商老闆討論,他想一次把所有流程都換成 AI 輔助。我問他:員工在用哪些工具。他搖頭說不知道。

我說:先等一下。

不是說不做,是說在「利涉大川」之前,要先「有孚」——先有掌握。你不知道員工在用什麼、資料流到哪裡,這個局是飄的,走太快反而壞事。

他花了三週做了一次盤點,就是問每個部門:你們現在在用什麼 AI 工具、用在哪些資料上。

光是這件事,就找到兩個他沒預期的破口——客服在用某個東南亞來源的 AI 工具,客戶投訴紀錄全都進去了;財務助理在用 AI 整理對帳單,連開戶銀行帳號都貼進去過。

那個老闆的表情,我還記得。

後來他的 AI 導入推進得很穩,因為他知道地基在哪、知道哪裡可以踩、哪裡不行。

---

說到底,中小企業的 AI 資安不需要搞 ISMS 認證,現階段先做這幾件事就夠:盤點員工在用哪些 AI 工具、訂一頁說清楚哪些資料不能外送的守則、把常用 AI 服務的隱私設定打開來看一遍。半天的工作,大多數公司從沒做過。

先看清楚,再動。