AI系統安全測試的自動化工具
鑒于復雜的網絡攻擊越來越多,網絡安全如今已成為微軟的首要問題。正因為如此,微軟也在不斷更新其安全基礎設施,以保護自己免受網絡安全的威脅。近日,微軟通過發布一個名為 Counterfit 的新工具來解決 AI 系統安全性的問題。
Counterfit 是微軟開發的一個開源工具,用于對企業或組織的人工智能系統進行自動化的安全測試。鑒于人工智能系統在各行業中廣泛運用,其最終目標是讓企業對其人工智能系統的穩健性和可靠性有很高的信心。微軟指出,在它調查的 28 個企業/組織中,有 25 個認為他們沒有正確的機制來保護人工智能系統,他們的安全專業人員也沒有很好地處理針對它們的威脅。
Counterfit 最初是一套可用于攻擊 AI 模型的腳本。微軟首先在自己的內部測試中使用它,但現在,Counterfit 已經發展成為一個自動化工具,可以大規模地攻擊多個 AI 模型。該公司表示,它已經成為微軟的人工智能業務的主要工具,可以用它來執行和自動化目前正在開發和生產的人工智能服務的對抗性安全測試。
使用 Counterfit 的好處是它與環境、模型和數據無關。這意味著,它可以在企業內部、邊緣和云端使用,以測試任何類型的人工智能模型,這些模型依賴于幾乎任何形式的輸入數據,包括文本和圖像。
微軟表示,Counterfit 對于使用 Metasploit 或 PowerShell Empyre 的安全團隊來說很容易使用。它可以用于滲透測試和漏洞掃描,它還可以記錄對人工智能模型的攻擊,因此數據科學家可以利用其遙測技術進一步加強其人工智能系統的安全性。
你可以前往該開源項目的 GitHub 頁面:https://github.com/Azure/counterfit,了解更多關于 Counterfit 的信息以及如何在企業中部署它。