英國人工智能安全研究所推出人工智能模型安全測試工具平臺
英國人工智能安全研究所(AI Safety Institute)推出了一個新平臺,允許企業在公開發布人工智能模型之前對其進行測試。
這個名為Inspect的平臺是一個軟件庫,旨在評估人工智能模型的能力,在推理和自主能力等方面對它們進行評分。
目前,開發人員缺乏可用的安全測試工具。上個月,MLCommons發布了一個大型的以語言模型為重點的安全測試基準。
Inspect就是為了填補這一空白而開發的,它是開源的,所以任何人都可以用它來測試他們的人工智能模型。
企業可以使用Inspect來評估人工智能模型和外部工具使用的提示工程。該工具還包含包含標記樣本的評估數據集,因此開發人員可以詳細檢查用于測試模型的數據。
它被設計為易于使用,并提供了用于運行整個過程中提供的各種測試的解釋器,包括模型是否托管在AWSBedrock等云環境中。
安全研究所表示,開放測試工具的決定將使全球的開發人員能夠進行更有效的人工智能評估。
英國科技大臣MichelleDonelan表示:“作為英國在人工智能安全方面不斷發揮領導作用的一部分,我已批準人工智能安全研究所的測試平臺開源我之所以對此充滿熱情,并將Inspect開源,是因為如果我們抓住人工智能的風險,我們可以獲得非凡的回報。”
安全研究所表示,它計劃在未來開發除Inspect之外的開源測試工具。該機構將在今年4月簽署一項聯合工作協議后,與美國同行合作開展相關項目。
人工智能安全研究所主席Ian Hogarth表示:“在人工智能安全測試方面的成功合作意味著有一個共享的、可訪問的評估方法,我們希望Inspect能成為人工智能安全研究所、研究機構和學術界的基石。我們希望看到全球人工智能社區不僅使用Inspect進行自己的模型安全測試,而且幫助適應和建立開源平臺,以便我們能夠全面進行高質量的評估。”
OpenUK首席執行官Amanda Brock表示,安全研究所新平臺的成功只能通過已經承諾使用該測試工具的公司數量來衡量。
Brock說:“由于英國在監管方面的立場緩慢,這個平臺必須取得成功,英國才能在未來的人工智能領域占有一席之地。現在所有人的目光都集中在韓國和下一屆安全峰會上,看看世界是如何看待這一點的。”
Saidot公司首席商務官Veera Siivonen表示,“Inspect能夠評估廣泛的人工智能功能并提供安全評分,使各種規模的組織不僅能夠利用人工智能的潛力,還能確保負責任地、安全地使用人工智能。這是實現人工智能安全民主化的一步,此舉無疑將推動創新,同時防范與先進人工智能系統相關的風險。”