隨著生成式AI深入營運核心,AI 安全已超越傳統資安範疇,企業面臨的風險不再只是系統入侵,還包含模型邏輯受操控、互動過程中的機密外洩,以及「影子 AI」帶來的管理漏洞,面對這些資安威脅,企業的防禦核心應從單純的擋住攻擊轉向全方位的行為治理。本文將帶大家認識什麼是AI安全,並深度解析 OWASP 10 大 AI 風險,最後分享如何透過分層防禦守護 AI 安全,協助企業開啟AI競爭力的新篇章。

 

AI安全性是什麼?與傳統資安有何不同?什麼是影子 AI?

AI 安全性(AI Security)是指保護 AI 應用在整個生命週期免受惡意攻擊的技術與策略,涵蓋範圍包含資料、模型、推論行為、使用方式等,以確保系統具有足夠的韌性與防禦能力,能安全地幫助企業發揮商業價值。AI 安全與傳統資安的不同之處體現於以下 4 點:

  • 攻擊者不一定會入侵系統,而是透過提示詞或語意操控模型行為,影響輸出結果與決策方向。
  • 資料外洩可能發生在「對話互動」而非檔案傳輸,例如使用者在詢問過程中不慎輸入敏感資訊,進而造成資料暴露風險。
  • AI 代理(AI Agent)可能因權限設計不當而自行做出高風險行為,例如在無監管之下自行決策、修改關鍵決策等。
  • 若員工私下使用未經核准的AI模型與工具(如生成式AI),則企業可能因組織管理疏失而出現資安漏洞,如洩漏專有程式碼、個人識別資訊等問題,此種情形稱為「影子 AI(Shadow AI)」。

由此可見,AI 安全涉及的面向更廣、更複雜,必須同時兼顧「人、API、模型推論、治理層面」,而非僅針對單一防火牆或資安設備,才能確實做好資料保護與控制。

 

生成式AI資安風險有哪些?10 大 AI 風險一次看

那麼企業導入生成式 AI 可能會遭遇到哪些資安威脅呢?根據非營利組織 OWASP 所發布的「OWASP Top 10 for LLM Applications」,新興大型語言模型(LLM)最常存在以下 10 個應用程式風險:

風險1:提示詞注入(Prompt Injection)

攻擊者透過輸入精心設計的提示詞,誘導模型執行違反規定的操作,包含直接注入、間接注入、多模態注入、多語言/混淆等多種攻擊情境,而「越獄攻擊(jail break)」則是提示詞注入的常見形式,可能導致模型偏離既有安全政策、角色設定或行為限制。

風險2:敏感資料外洩(Sensitive Information Disclosure)

使用者有可能在與生成式 AI 的對話過程中,不經意洩漏敏感資料,例如商業機密、安全憑證、原始碼等,導致出現侵犯隱私、未授權存取、觸犯智慧財產權等情形。

風險3:供應鏈風險(Supply Chain)

當供應鏈尚未完善,其涵蓋的組件或服務都有可能成為潛在的攻擊目標,例如模型、訓練資料、部署平台等,進而提高外部資源被竄改(Tampering)、投毒攻擊(Poisoning Attack)的風險,常見情境包含雲端攻擊、資料集投毒、條款與隱私政策變更等。

風險4:資料與模型投毒(Data and Model Poisoning)

攻擊者在 AI 訓練階段進行投毒,使用操弄的資料影響模型學習,使其在遇到特定指令時提供有害內容或執行惡意行為,所造成的影響包含模型理解錯誤、決策失準、安全性下降等。

風險5:不當輸出處理(Improper Output Handling)

當模型生成的內容未經適當驗證、過濾,即有可能出現不當輸出處理之情形,使前後端遭受攻擊,如 XSS、CSRF、SSRF、RCE 等。

風險6:過度代理授權(Excessive Agency)

過度代理授權是指當 AI 被賦予過高的行動權限,可能在缺乏監管的情況下執行未預期的操作,影響系統或業務流程。

風險7:系統提示詞洩露(System Prompt Leakage)

系統提示詞洩漏時,攻擊者可從其涵蓋的敏感資訊(如篩選條件、權限與角色結構),瞭解系統運作規則,並分析輸出結果、推測模型安全機制,進一步找到適合發動攻擊的切入點。

風險8:向量與嵌入弱點(Vector and Embedding Weaknesses)

此風險多發生在使用檢索增強生成技術(RAG)的 LLM 系統,當 RAG 索引方式設計不良或遭攻擊者更改時,就有可能被注入有害內容、影響輸出資訊,甚至造成機密洩漏。

風險9:錯誤資訊(Misinformation)

模型可能在缺乏完整資訊的情況下產生不正確或誤導性的回應,影響企業決策與商譽。

風險10:無限資源耗盡(Unbounded Consumption)

若缺乏使用限制,過量請求或濫用行為可能導致運算資源耗盡,影響服務穩定性與成本控管。

 

AI安全防護怎麼做?以分層防禦應對生成式 AI 資安風險

利用分層防禦策略應對影子AI、提示詞注入風險

面對生成式 AI 的多變風險,企業不應依賴單一工具,而應採取多層次的保護機制,確保每一層都能互補並發揮特定的防禦功能。接下來將分成 4 個層次說明防禦方式、實務做法、代表性技術及對應風險:

1. 使用者與資料行為防禦:防止數據在進入 AI 前就外洩

許多生成式 AI 的資安事件,並非模型被攻擊,而是員工在日常工作中,將不該送進 AI 的資料送了進去。因此,AI 安全的第 1 步,應從使用者行為與資料流向開始控管,讓資料在進入 AI 前就受到保護。

  • 防禦方式:人為行為導向的資料外洩防護(User-centric DLP)。
  • 實務做法:
    • 限制機敏傳輸: 自動偵測並阻斷員工將包含客戶資料、程式碼或財務報表的內容貼上、上傳至生成式 AI 工具。
    • 監控資料操作行為:監控瀏覽器、SaaS 中的資料流向,識別並降低 Shadow AI(影子 AI) 帶來的不可視風險。
  • 代表性技術:
    • Fortinet FortiDLP:以雲端原生的端點數據防護為核心,結合機器學習識別機敏資料,能追蹤資料在 GenAI 應用中的流動路徑,並透過「使用者行為分析」預防不當的資料洩漏或異常上傳行為。
    • Palo Alto Networks AI Access Security:用於管控員工使用 GenAI 的行為,功能包含完整的資料保護(掃描資料、看哪些IP被分享)、存取控制(阻擋未允許的應用、套用政策)、威脅/合規控制,以防影子AI風險產生。
  • 對應風險:OWASP LLM02(敏感資訊外洩)、LLM06(過度代理授權)。

2. 對外服務入口防禦:避免AI成為攻擊放大器

AI 服務的高曝光度使其易受流量攻擊,即使模型本身安全,仍有可能出現 DDoS、Bot 攻擊或 API 濫用的情形,因此必須確保入口與邊緣層的穩定性與可用性,才能防止成本失控與服務中斷。

  • 防禦方式:流量、應用程式與 API 層級防護(App & API Security)。
  • 實務做法:
    • 對抗 DDoS 與 Bot:確保 AI 服務在面臨突發流量或惡意請求時,仍能維持可用性。
    • API 速率限制:限制 API 呼叫速率並具備異常偵測功能,以防因 AI 濫用而拖垮後端系統。
  • 代表性技術:
    • Akamai App & API Protector(AAP):部署在 GenAI 應用入口,專門處理 DDoS、爬蟲、IP信譽與速率控制等流量問題,可做到 AI 流量分析、控制過量查詢使用量與模型過載。
    • Akamai API Security:在 Akamai 的 GenAI 防護架構裡,專注於 AI API 的全面盤點與行為分析。透過主動測試與濫用檢測,識別隱藏的「影子 AI」斷點,並從行為層面預防惡意提示詞攻擊與法律合規風險。。
  • 對應風險:OWASP LLM10(無限資源耗盡)、API安全風險。

3. 推論階段即時防護:攔截惡意指令與不當輸出

生成式 AI 的許多風險,實際發生在模型推論與回應的當下。攻擊者可能透過 Prompt Injection 或誘導式提問,影響模型輸出結果,造成不當回應或敏感資訊外洩,因此需在 AI 應用與模型之間建立專屬的即時防護層。

  • 防禦方式:推論階段的即時 AI 防護(Runtime Protection)。
  • 實務做法:
    • 提示詞注入阻斷:即時分析提示詞與模型輸出的語意及上下文,偵測並阻擋惡意提示詞與越獄行為。
    • 輸出內容審查:在模型將資訊傳給用戶前,掃描回應中是否包含敏感資料或不當內容。
  • 代表性技術:
    • Akamai Firewall for AI:Akamai 的 AI Firewall 含有 Input Guardrails,如Prompt Injection、DoS、Off-Policy,並具備同時保護輸入與輸出的設計,使安全防護更全面。
    • Check Point CloudGuard WAF+Lakera(GenAI Protection):Check Point 的 GenAI 防護引擎把輸入面做成 Prompt Guard,可對應提示注入、越獄嘗試、操縱輸入風險,阻止 LLM 行為被改寫;另外也使用雙層機器學習來分類與語意分析提示詞,幫助降低延遲與誤報。
  • 對應風險:OWASP LLM01(提示詞注入)、LLM05(不當輸出處理)、LLM02(敏感資料外洩)。

4. AI使用治理與 Guardrails:界定清晰的行為邊界

即使模型與入口都受到保護,若缺乏治理與行為邊界,AI 仍可能因過度授權而成為新的風險來源。企業需確保 AI 是被允許使用,而不是被放任使用,才能使其運作符合規定與倫理準則,並防止越權行事。

  • 防禦機制:AI 使用治理與存取控管(Governance & Access Control)。
  • 實務做法:
    • 行為護欄(Guardrails):定義生成式 AI 只能用在特定情境,避免超出職權範圍。
    • 限制存取範圍:限制 AI 存取資料與系統的範圍,以防 AI Agent、員工越權操作。
  • 代表性技術:
    • Check Point GenAI Protect(Data Guard/Content Guard/Usage Guard)
      • Data Guard:防止模型在回覆中洩露敏感、機密資料。
      • Content Guard:過濾與控制有害、不安全或違反政策的輸出。
      • Usage Guard:可監控並限制誤用、濫用模式與過度資源消耗。
    • Palo Alto Networks GenAI Protect:透過治理政策引擎,提供基於身份與情境的 AI 存取控管,能自動識別並阻止 AI Agent 越權存取企業內部敏感資源,確保 AI 系統運作符合組織內部的安全治理規範與法律合規要求。
  • 對應風險:OWASP LLM06(過度代理授權)、治理層風險。

 

精誠資訊|匯聚頂尖資安品牌,為企業打造堅實防護網

面對導入 AI 資安解決方案的複雜決策過程,您是否在眾多產品中感到難以抉擇?針對前文探討的 AkamaiCheck PointFortinetPalo Alto Networks 等國際知名品牌,精誠資訊皆具備完整的經銷授權。我們不僅止於提供優質產品,更期許成為您值得信賴的長期戰略夥伴。透過我們周全的服務流程,從初期的需求洞察、客製化方案規劃、技術實測驗證,到後端的商務洽談與持續性價值提升,精誠資訊將協助您在每個階段做出最精準的判斷,確保您選用的AI資安對策能完美契合企業需求,發揮最大效益。

欲深入諮詢 AI 資安服務細節,歡迎填寫下方表單

立即預約您的專屬顧問諮詢

精誠資訊致力保護和尊重您的隱私,並樂意提供你要求的內容,如果您同意我們就此目的聯絡您,請在上方勾選表示您希望我們聯絡您的方式。隱私權完整閱讀聲明

 

延伸閱讀:

AI幻覺是什麼?深入解析成因、影響與企業應對方案

AI知識庫是什麼?為什麼企業需要AI知識管理?5分鐘解析!