明知GenAI存在風險,為何我們遲遲不修補其缺陷?
盡管GenAI威脅已成為安全團隊和領導層關注的首要問題,但根據Cobalt公司的報告,當前對大型語言模型(LLM)及AI驅動應用的測試和修復工作并未跟上風險的增長步伐。
滲透測試數據揭示LLM安全領域的行業分歧
報告中的滲透測試數據凸顯了一個令人不安的現實:LLM應用常常存在嚴重的安全漏洞,這些問題在高風險場景中出現的頻率遠高于其他任何類型的系統,表明LLM的部署帶來了尤為突出的風險。
更令人擔憂的是,這些嚴重漏洞得到修復的情況極為罕見,在所有測試系統中,LLM的修復率最低,導致許多關鍵風險懸而未決,盡管部分問題能迅速得到解決,但這很可能僅反映了那些易于修復的情況,而更為復雜和危險的缺陷則持續累積,形成了日益擴大的安全缺口。
滲透測試中發現的嚴重漏洞情況因行業而異,這為我們揭示了哪些領域可能面臨最大風險。報告指出,行政服務、交通運輸、酒店業、制造業和教育等行業存在較高比例的關鍵安全問題。相比之下,娛樂、金融服務和信息服務等行業則較少出現嚴重漏洞。這些差異可能反映了各行業在安全成熟度、系統復雜性或監管嚴格程度上的不同。
領導層呼吁暫停GenAI,而從業者繼續推進
盡管對GenAI相關風險的廣泛認知已經存在,但這種令人擔憂的漏洞現狀依然持續。大多數企業承認GenAI是首要的信息技術威脅,普遍擔憂包括敏感數據泄露和模型操縱等問題。然而,主動的測試和安全實踐卻未能跟上節奏。
僅有66%的組織定期對其GenAI驅動的產品進行測試,仍有相當一部分產品處于無保護狀態。
48%的受訪者認為需要“戰略性暫停”,以重新調整對GenAI驅動威脅的防御策略。但這一暫停并未到來。
“威脅行為者不會坐等時機,安全團隊也同樣不能等待,”Cobalt公司的首席技術官Gunter Ollmann表示。“我們的研究表明,雖然GenAI正在重塑我們的工作方式,但它也在改寫風險規則。安全基礎必須同步演進,否則我們將冒著在過時保障措施上構建未來創新的風險。”
安全領導層比一線從業者更傾向于支持暫停GenAI的部署,并將GenAI視為網絡安全威脅而非有用工具。這表明領導層與實際操作團隊之間存在認知分歧,并凸顯了測試數據中未反映出的潛在過度自信問題。
解析LLM的關鍵漏洞
在LLM漏洞方面,安全團隊的擔憂與實際測試中發現的問題之間存在脫節。
許多專業人士關注的是數據保護,如敏感信息泄露、模型操縱和訓練數據暴露等問題,這在AI系統的數據安全高風險環境下是完全可以理解的。
但滲透測試揭示了不同的情況。最常見的問題并非直接的數據泄露,而是諸如提示注入或不安全輸出等弱點。這些問題表面上看可能并不緊急,但它們卻可能成為攻擊者獲取敏感數據的途徑。
“與云采用的迅猛勢頭相似,GenAI暴露了創新與安全準備之間的根本性差距,”Ollmann補充道,“成熟的控制措施并未為LLM的世界所設計。安全團隊必須迅速從被動審計轉向程序化、主動性的AI測試。”