隨著生成式AI深入營運核心,AI 安全已超越傳統資安範疇,企業面臨的風險不再只是系統入侵,還包含模型邏輯受操控、互動過程中的機密外洩,以及「影子 AI」帶來的管理漏洞,面對這些資安威脅,企業的防禦核心應從單純的擋住攻擊轉向全方位的行為治理。本文將帶大家認識什麼是AI安全,並深度解析 OWASP 10 大 AI 風險,最後分享如何透過分層防禦守護 AI 安全,協助企業開啟AI競爭力的新篇章。
AI安全性是什麼?與傳統資安有何不同?什麼是影子 AI?
AI 安全性(AI Security)是指保護 AI 應用在整個生命週期免受惡意攻擊的技術與策略,涵蓋範圍包含資料、模型、推論行為、使用方式等,以確保系統具有足夠的韌性與防禦能力,能安全地幫助企業發揮商業價值。AI 安全與傳統資安的不同之處體現於以下 4 點:
- 攻擊者不一定會入侵系統,而是透過提示詞或語意操控模型行為,影響輸出結果與決策方向。
- 資料外洩可能發生在「對話互動」而非檔案傳輸,例如使用者在詢問過程中不慎輸入敏感資訊,進而造成資料暴露風險。
- AI 代理(AI Agent)可能因權限設計不當而自行做出高風險行為,例如在無監管之下自行決策、修改關鍵決策等。
- 若員工私下使用未經核准的AI模型與工具(如生成式AI),則企業可能因組織管理疏失而出現資安漏洞,如洩漏專有程式碼、個人識別資訊等問題,此種情形稱為「影子 AI(Shadow AI)」。
由此可見,AI 安全涉及的面向更廣、更複雜,必須同時兼顧「人、API、模型推論、治理層面」,而非僅針對單一防火牆或資安設備,才能確實做好資料保護與控制。
生成式AI資安風險有哪些?10 大 AI 風險一次看
那麼企業導入生成式 AI 可能會遭遇到哪些資安威脅呢?根據非營利組織 OWASP 所發布的「OWASP Top 10 for LLM Applications」,新興大型語言模型(LLM)最常存在以下 10 個應用程式風險:
風險1:提示詞注入(Prompt Injection)
攻擊者透過輸入精心設計的提示詞,誘導模型執行違反規定的操作,包含直接注入、間接注入、多模態注入、多語言/混淆等多種攻擊情境,而「越獄攻擊(jail break)」則是提示詞注入的常見形式,可能導致模型偏離既有安全政策、角色設定或行為限制。
風險2:敏感資料外洩(Sensitive Information Disclosure)
使用者有可能在與生成式 AI 的對話過程中,不經意洩漏敏感資料,例如商業機密、安全憑證、原始碼等,導致出現侵犯隱私、未授權存取、觸犯智慧財產權等情形。
風險3:供應鏈風險(Supply Chain)
當供應鏈尚未完善,其涵蓋的組件或服務都有可能成為潛在的攻擊目標,例如模型、訓練資料、部署平台等,進而提高外部資源被竄改(Tampering)、投毒攻擊(Poisoning Attack)的風險,常見情境包含雲端攻擊、資料集投毒、條款與隱私政策變更等。
風險4:資料與模型投毒(Data and Model Poisoning)
攻擊者在 AI 訓練階段進行投毒,使用操弄的資料影響模型學習,使其在遇到特定指令時提供有害內容或執行惡意行為,所造成的影響包含模型理解錯誤、決策失準、安全性下降等。
風險5:不當輸出處理(Improper Output Handling)
當模型生成的內容未經適當驗證、過濾,即有可能出現不當輸出處理之情形,使前後端遭受攻擊,如 XSS、CSRF、SSRF、RCE 等。
風險6:過度代理授權(Excessive Agency)
過度代理授權是指當 AI 被賦予過高的行動權限,可能在缺乏監管的情況下執行未預期的操作,影響系統或業務流程。
風險7:系統提示詞洩露(System Prompt Leakage)
系統提示詞洩漏時,攻擊者可從其涵蓋的敏感資訊(如篩選條件、權限與角色結構),瞭解系統運作規則,並分析輸出結果、推測模型安全機制,進一步找到適合發動攻擊的切入點。
風險8:向量與嵌入弱點(Vector and Embedding Weaknesses)
此風險多發生在使用檢索增強生成技術(RAG)的 LLM 系統,當 RAG 索引方式設計不良或遭攻擊者更改時,就有可能被注入有害內容、影響輸出資訊,甚至造成機密洩漏。
風險9:錯誤資訊(Misinformation)
模型可能在缺乏完整資訊的情況下產生不正確或誤導性的回應,影響企業決策與商譽。
風險10:無限資源耗盡(Unbounded Consumption)
若缺乏使用限制,過量請求或濫用行為可能導致運算資源耗盡,影響服務穩定性與成本控管。
AI安全防護怎麼做?以分層防禦應對生成式 AI 資安風險

面對生成式 AI 的多變風險,企業不應依賴單一工具,而應採取多層次的保護機制,確保每一層都能互補並發揮特定的防禦功能。接下來將分成 4 個層次說明防禦方式、實務做法、代表性技術及對應風險:
1. 使用者與資料行為防禦:防止數據在進入 AI 前就外洩
許多生成式 AI 的資安事件,並非模型被攻擊,而是員工在日常工作中,將不該送進 AI 的資料送了進去。因此,AI 安全的第 1 步,應從使用者行為與資料流向開始控管,讓資料在進入 AI 前就受到保護。
- 防禦方式:人為行為導向的資料外洩防護(User-centric DLP)。
- 實務做法:
- 限制機敏傳輸: 自動偵測並阻斷員工將包含客戶資料、程式碼或財務報表的內容貼上、上傳至生成式 AI 工具。
- 監控資料操作行為:監控瀏覽器、SaaS 中的資料流向,識別並降低 Shadow AI(影子 AI) 帶來的不可視風險。
- 代表性技術:
- Fortinet FortiDLP:以雲端原生的端點數據防護為核心,結合機器學習識別機敏資料,能追蹤資料在 GenAI 應用中的流動路徑,並透過「使用者行為分析」預防不當的資料洩漏或異常上傳行為。
- Palo Alto Networks AI Access Security:用於管控員工使用 GenAI 的行為,功能包含完整的資料保護(掃描資料、看哪些IP被分享)、存取控制(阻擋未允許的應用、套用政策)、威脅/合規控制,以防影子AI風險產生。
- 對應風險:OWASP LLM02(敏感資訊外洩)、LLM06(過度代理授權)。
2. 對外服務入口防禦:避免AI成為攻擊放大器
AI 服務的高曝光度使其易受流量攻擊,即使模型本身安全,仍有可能出現 DDoS、Bot 攻擊或 API 濫用的情形,因此必須確保入口與邊緣層的穩定性與可用性,才能防止成本失控與服務中斷。
- 防禦方式:流量、應用程式與 API 層級防護(App & API Security)。
- 實務做法:
- 對抗 DDoS 與 Bot:確保 AI 服務在面臨突發流量或惡意請求時,仍能維持可用性。
- API 速率限制:限制 API 呼叫速率並具備異常偵測功能,以防因 AI 濫用而拖垮後端系統。
- 代表性技術:
- Akamai App & API Protector(AAP):部署在 GenAI 應用入口,專門處理 DDoS、爬蟲、IP信譽與速率控制等流量問題,可做到 AI 流量分析、控制過量查詢使用量與模型過載。
- Akamai API Security:在 Akamai 的 GenAI 防護架構裡,專注於 AI API 的全面盤點與行為分析。透過主動測試與濫用檢測,識別隱藏的「影子 AI」斷點,並從行為層面預防惡意提示詞攻擊與法律合規風險。。
- 對應風險:OWASP LLM10(無限資源耗盡)、API安全風險。
3. 推論階段即時防護:攔截惡意指令與不當輸出
生成式 AI 的許多風險,實際發生在模型推論與回應的當下。攻擊者可能透過 Prompt Injection 或誘導式提問,影響模型輸出結果,造成不當回應或敏感資訊外洩,因此需在 AI 應用與模型之間建立專屬的即時防護層。
- 防禦方式:推論階段的即時 AI 防護(Runtime Protection)。
- 實務做法:
- 提示詞注入阻斷:即時分析提示詞與模型輸出的語意及上下文,偵測並阻擋惡意提示詞與越獄行為。
- 輸出內容審查:在模型將資訊傳給用戶前,掃描回應中是否包含敏感資料或不當內容。
- 代表性技術:
- Akamai Firewall for AI:Akamai 的 AI Firewall 含有 Input Guardrails,如Prompt Injection、DoS、Off-Policy,並具備同時保護輸入與輸出的設計,使安全防護更全面。
- Check Point CloudGuard WAF+Lakera(GenAI Protection):Check Point 的 GenAI 防護引擎把輸入面做成 Prompt Guard,可對應提示注入、越獄嘗試、操縱輸入風險,阻止 LLM 行為被改寫;另外也使用雙層機器學習來分類與語意分析提示詞,幫助降低延遲與誤報。
- 對應風險:OWASP LLM01(提示詞注入)、LLM05(不當輸出處理)、LLM02(敏感資料外洩)。
4. AI使用治理與 Guardrails:界定清晰的行為邊界
即使模型與入口都受到保護,若缺乏治理與行為邊界,AI 仍可能因過度授權而成為新的風險來源。企業需確保 AI 是被允許使用,而不是被放任使用,才能使其運作符合規定與倫理準則,並防止越權行事。
- 防禦機制:AI 使用治理與存取控管(Governance & Access Control)。
- 實務做法:
- 行為護欄(Guardrails):定義生成式 AI 只能用在特定情境,避免超出職權範圍。
- 限制存取範圍:限制 AI 存取資料與系統的範圍,以防 AI Agent、員工越權操作。
- 代表性技術:
- Check Point GenAI Protect(Data Guard/Content Guard/Usage Guard)
- Data Guard:防止模型在回覆中洩露敏感、機密資料。
- Content Guard:過濾與控制有害、不安全或違反政策的輸出。
- Usage Guard:可監控並限制誤用、濫用模式與過度資源消耗。
- Palo Alto Networks GenAI Protect:透過治理政策引擎,提供基於身份與情境的 AI 存取控管,能自動識別並阻止 AI Agent 越權存取企業內部敏感資源,確保 AI 系統運作符合組織內部的安全治理規範與法律合規要求。
- Check Point GenAI Protect(Data Guard/Content Guard/Usage Guard)
- 對應風險:OWASP LLM06(過度代理授權)、治理層風險。
精誠資訊|匯聚頂尖資安品牌,為企業打造堅實防護網
面對導入 AI 資安解決方案的複雜決策過程,您是否在眾多產品中感到難以抉擇?針對前文探討的 Akamai、Check Point、Fortinet 與 Palo Alto Networks 等國際知名品牌,精誠資訊皆具備完整的經銷授權。我們不僅止於提供優質產品,更期許成為您值得信賴的長期戰略夥伴。透過我們周全的服務流程,從初期的需求洞察、客製化方案規劃、技術實測驗證,到後端的商務洽談與持續性價值提升,精誠資訊將協助您在每個階段做出最精準的判斷,確保您選用的AI資安對策能完美契合企業需求,發揮最大效益。
欲深入諮詢 AI 資安服務細節,歡迎填寫下方表單
延伸閱讀: