機器學習創造新的攻擊面,需要專門的防御
?由于幾乎每個行業的企業都將人工智能(AI)技術集成到他們的硬件和軟件產品中,機器學習(ML)輸入和輸出正變得越來越廣泛地可供客戶使用。這自然引起了惡意行為者的注意。
HiddenLayer的首席執行官ChristopherSestito談到了機器學習安全注意事項以及企業應該擔心的相關威脅。
企業正在慢慢意識到機器學習可以為他們開辟的途徑。但是,他們是否也密切關注網絡安全?
很少有企業專注于保護他們的機器學習資產,更少的企業將資源分配給機器學習安全。造成這種情況的原因有很多,包括競爭的預算優先事項、人才稀缺,以及直到最近還缺乏針對此問題的安全產品。
在過去的十年中,我們看到每個行業都以前所未有的方式采用人工智能/機器學習,以應對每個可用數據的用例。優勢已得到證實,但正如我們在其他新技術中看到的那樣,它們很快成為惡意行為者的新攻擊面。
隨著機器學習操作的進步,數據科學團隊在有效性、效率、可靠性和可解釋性方面正在構建更成熟的人工智能生態系統,但安全性尚未得到優先考慮。對于企業企業來說,這不再是一條可行的道路,因為攻擊機器學習L系統的動機很明確,攻擊工具可用且易于使用,并且潛在目標正以前所未有的速度增長。
攻擊者如何利用公開的機器學習輸入?
隨著機器學習模型被集成到越來越多的生產系統中,它們正在硬件和軟件產品、Web應用程序、移動應用程序等領域向客戶展示。這種趨勢通常被稱為“邊緣人工智能”,它為我們每天使用的所有技術帶來了令人難以置信的決策能力和預測能力。向越來越多的最終用戶提供機器學習同時將這些相同的機器學習資產暴露給威脅參與者。
未通過網絡公開的機器學習模型也面臨風險。可以通過傳統的網絡攻擊技術訪問這些模型,為對抗性機器學習機會鋪平道路。一旦威脅參與者獲得訪問權限,他們就可以使用多種類型的攻擊。推理攻擊試圖映射或“反轉”模型,從而能夠利用模型的弱點、篡改總體產品的功能或復制和竊取模型本身。
人們已經看到了這種攻擊安全供應商繞過防病毒或其他保護機制的真實例子。攻擊者還可以選擇毒化用于訓練模型的數據,以誤導系統學習不正確,并使決策制定有利于攻擊者。
企業應該特別擔心哪些針對機器學習系統的威脅?
雖然需要防御所有對抗性機器學習攻擊類型,但不同的企業將有不同的優先級。利用機器學習模型識別欺詐交易的金融機構將高度關注防御推理攻擊。
如果攻擊者了解欺詐檢測系統的優勢和劣勢,他們可以使用它來改變他們的技術以不被發現,完全繞過模型。醫療保健企業可能對數據中毒更敏感。醫學領域是最早使用其海量歷史數據集通過機器學習預測結果的采用者。
數據中毒攻擊可能導致誤診、改變藥物試驗結果、歪曲患者群體等。安全企業本身目前正專注于機器學習繞過攻擊,這些攻擊被積極用于部署勒索軟件或后門網絡。
在部署機器學習驅動系統時,首席信息安全官(CISO)應牢記哪些主要安全注意事項?
如今能給首席信息安全官(CISO)的最好建議是接受我們已經在新興技術中學到的模式。就像我們在云基礎設施方面的進步一樣,機器學習部署代表了一個新的攻擊面,需要專門的防御。使用Microsoft的Counterfit或IBM的Adversarial Robustness Toolbox等開源攻擊工具,進行對抗性機器學習攻擊的門檻每天都在降低。
另一個主要考慮因素是,其中許多攻擊并不明顯,如果不尋找它們,可能無法理解它們正在發生。作為安全從業者,已經習慣了勒索軟件,這清楚地表明一個企業受到了攻擊,數據被鎖定或被盜。對抗性機器學習攻擊可以定制為在更長的時間內發生,并且有些攻擊(例如數據中毒)可能是一個較慢但具有永久性破壞性的過程。?