根據墨爾本大學與 KPMG 最新聯合研究,47% 的受訪職場人士曾在工作中不當使用 AI,63% 目睹過同事有同樣行為,涉及案例從讓 AI 代寫績效測驗答案,到把公司機密資料上傳至公開 AI 平台,不勝枚舉。研究直指,這股「影子 AI」浪潮正大幅削弱企業偵測與管理風險的能力。
數據揭露的問題遠不止於此:
有 56% 的員工承認,他們曾在不確定公司是否允許的情況下,於工作中使用 AI 工具。
48% 至 49% 曾上傳機密資訊或智慧財產至公開平台。
64% 坦承因依賴 AI 而減少投入。
57% 因使用 AI 而在工作中出錯。
53% 完全隱瞞自己的 AI 使用行為,把 AI 產出當成自己的成果。
代理 AI 合規平台 i-GENTIC AI 執行長 Zahra Timsah 指出,問題的核心在於「能力假象」的形成。
「員工幾分鐘內就能產出精緻報告,主管誤以為他有真材實料。公司最終是在沒有人真正理解的基礎上做出決策,而且以為團隊在獨立思考,其實正在失去內部智識。」
網路安全培訓平台 Cybrary 營運長 Nick Misner 則直指這是系統性危機:「AI 採用速度大幅超越治理速度。將近一半員工在不當使用 AI,企業卻渾然不知,從資料外洩到違反法規,風險是難以估量的。」
他援引蓋洛普《全球職場現狀》報告指出,全球高達 79% 的員工對工作缺乏真正的投入感,不是混日子交差,就是對工作徹底冷漠、毫無投入。把強大的 AI 工具交給這樣的員工,若缺乏明確的使用規範,他們不會拿它來提升生產力,而是用來少做一點、甚至走捷徑,進而為企業埋下真實的風險。
面對日益嚴峻的影子 AI 問題,報告提出了一系列具體的對策,包括:
建立明確的治理框架與策略:企業應建立能支持監督、問責、透明度與風險管理的 AI 治理框架。必須將負責任的 AI 實踐直接嵌入日常營運流程與決策之中。
投資 AI 素養與培訓:企業應積極投資提升員工的 AI 素養,增強他們的人機協作技能、批判性評估能力與負責任的使用觀念。
企業可以將這些培訓與指引無縫融入入職流程、專案工作與績效評估中,以建立健康的職場 AI 使用規範。
營造「心理安全」的溝通環境:為了打擊員工不透明和不當使用 AI 的行為,企業必須創造一個心理安全的環境,讓員工覺得可以放心地公開分享他們在工作中何時及如何使用了 AI 工具。這需要建立有意義的溝通結構,聆聽員工對 AI 部署的真實回饋。
戰略性勞動力規劃與工作重塑:鑑於 AI 可能導致員工技能退化(deskilling)或過度依賴,企業應投資於戰略性的勞動力規劃與技能重塑(reskilling)。
同時,必須主動理解、管理並監控 AI 對員工工作量、壓力及同事間協作所帶來的影響,並透過重新設計工作流程來保持人與人之間的連結。
以行動贏得信任:信任是需要爭取的,組織必須透過展示負責任的 AI 應用來贏得利害關係人的信任,而非理所當然地假設信任存在。
報告也提醒,管理階層應該要樹立榜樣、設定明確規範,除了應當親身示範負責任的 AI 使用方式,並且也要針對什麼是「適當地使用」設定清晰的團隊規範與指引。
此外,管理者應鼓勵團隊針對 AI 進行持續的雙向溝通,探討 AI 在哪些具體環節能創造價值、在哪裡可能引發風險,以及員工在過程中需要什麼樣的支援。
最後,在確保遵守企業政策的前提下,管理者應支持員工進行安全的 AI 應用實驗,藉此在推動創新與風險管控之間取得平衡。
就業律師 Kelsey Szamet 也提醒,AI 濫用一旦導致資料外洩、財務損失或蓄意欺騙,便進入法律範疇,員工對自己上傳至 AI 平台的內容仍負有法律責任。企業若對相同違規行為處置不一致,更可能引發歧視或報復的訴訟風險。
「大家遲早都會用 AI,」Szamet 說,「真正的問題是,企業能不能在它成為禍患之前,就把它管好。」
責任編輯:Sisley
本文初稿由 INSIDE 使用 AI 協助編撰,並經人工審校確認;加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀:


