AI安全是什麼?OWASP 10大威脅、分層防禦策略解析
隨著生成式AI深入營運核心,AI 安全已超越傳統資安範疇,企業面臨的風險不再只是系統入侵,還包含模型邏輯受操控、互動過程中的機密外洩,以及「影子 AI」帶來的管理漏洞,面對這些資安威脅,企業的防禦核心應從單純的擋住攻擊轉向全方位的行為治理。本文將帶大家認識什麼是AI安全,並深度解析 OWASP 10 大 AI 風險,最後分享如何透過分層防禦守護 AI 安全,協助企業開啟AI競爭力的新篇章。 AI安全性是什麼?與傳統資安有何不同?什麼是影子 AI? AI 安全性(AI Security)是指保護 AI 應用在整個生命週期免受惡意攻擊的技術與策略,涵蓋範圍包含資料、模型、推論行為、使用方式等,以確保系統具有足夠的韌性與防禦能力,能安全地幫助企業發揮商業價值。AI 安全與傳統資安的不同之處體現於以下 4 點: 攻擊者不一定會入侵系統,而是透過提示詞或語意操控模型行為,影響輸出結果與決策方向。 資料外洩可能發生在「對話互動」而非檔案傳輸,例如使用者在詢問過程中不慎輸入敏感資訊,進而造成資料暴露風險。 AI 代理(AI Agent)可能因權限設計不當而自行做出高風險行為,例如在無監管之下自行決策、修改關鍵決策等。 若員工私下使用未經核准的AI模型與工具(如生成式AI),則企業可能因組織管理疏失而出現資安漏洞,如洩漏專有程式碼、個人識別資訊等問題,此種情形稱為「影子 AI(Shadow AI)」。 由此可見,AI 安全涉及的面向更廣、更複雜,必須同時兼顧「人、API、模型推論、治理層面」,而非僅針對單一防火牆或資安設備,才能確實做好資料保護與控制。 生成式AI資安風險有哪些?10 大 AI 風險一次看 那麼企業導入生成式 AI 可能會遭遇到哪些資安威脅呢?根據非營利組織 OWASP 所發布的「OWASP Top 10 for LLM Applications」,新興大型語言模型(LLM)最常存在以下 10 個應用程式風險: 風險1:提示詞注入(Prompt Injection) 攻擊者透過輸入精心設計的提示詞,誘導模型執行違反規定的操作,包含直接注入、間接注入、多模態注入、多語言/混淆等多種攻擊情境,而「越獄攻擊(jail break)」則是提示詞注入的常見形式,可能導致模型偏離既有安全政策、角色設定或行為限制。 風險2:敏感資料外洩(Sensitive Information Disclosure) [...]