解決AI安全問題:NIST人工智能風險管理框架
與任何信息技術一樣,人工智能也會面臨各種安全問題以及其他新出現的問題,如隱私、歧視、不公平等。美國國家標準與技術研究所(NIST)正在開發一個志愿性質的框架,以更好地管理人工智能相關的風險,稱為人工智能風險管理框架(AI RMF)。該框架的目標是提高將可信度納入AI的能力,包括AI的產品、服務、系統的設計、開發、使用和評估。
該框架的初稿建立在2021年12月NIST發布的一份概念性文件上。NIST希望AI RMF能夠描述基于人工智能的系統,其風險與其他領域的風險有何不同,并鼓勵利益相關群體有針對性地解決這些風險。NIST表示,它可以用于超出框架之外的合規映射,如現有法律法規或其他強制性指南等。
盡管人工智能框架面臨著與其他NIST框架類似的風險,但前者的某些風險“差距”或對其的擔憂,是人工智能所獨有的。而這些差距正是AI RMF想要彌補解決的。
AI利益相關群體和技術特征
NIST將四個利益相關群體確定為該框架的預期受眾:人工智能系統利益相關者、運營商和評估者、外部利益相關者和公眾。采用三級特征分類法,在識別和管理人工智能系統相關風險的綜合方法中應考慮這些特征:技術特征、社會技術特征和指導原則。
技術特征是指人工智能系統設計者和開發者直接控制的因素,可以使用標準評估標準來衡量,如準確性、可靠性和彈性。社會技術特征指人工智能系統在個人、群體和社會環境中的使用和感知方式,如“可解釋性”、隱私、安全和管理歧視。在AI RMF分類法中,指導原則指的是更廣泛的社會規范和價值觀,表明了公平、問責和透明度等社會優先事項。
與其他NIST框架一樣,AI RMF核心包含AI風險管理活動的三個要素:功能、類別和子類別。功能是為了映射、測量、管理和治理人工智能風險。盡管AI RMF預期通過概要文件為特定用例提供上下文,但該任務以及計劃的實踐指南已被推遲到以后的草案中。
在3月中旬發布框架草案后,NIST舉行了為期三天的研討會,討論人工智能RMF的各個方面,包括深入探討如何減輕人工智能技術中的有害偏見(歧視)。以下是研討會中的一些觀點:
繪制人工智能風險:上下文環境很重要
卡內基梅隆大學的研究人員Rayid Ghani在NIST的研討會上聲稱,在繪制人工智能風險圖時,“我們仍然需要弄清楚上下文、用例和部署場景。較為理想化的是,所有這些事情都應該在構建系統時發生。”
美國醫療保險計劃副總裁Marilyn Zigmund Luke告訴與會者,“考慮到不同環境和結構的多樣性,個人和組織的風險當然會不同。我認為應該從評估風險的角度來理解所有這些風險,你必須從零開始,去建立一些不同的參數。”
測量人工智能活動:需要新技術
由于人工智能系統中固有的社會政治倫理和習俗的復雜性,人工智能相關活動的測量仍處于初級階段。圣地亞哥加利福尼亞大學的David Danks認為:“測量功能中的很大一部分實質上是交給人去了解的。在這種特定的背景下,歧視味著什么?相關的價值觀是什么?因為,風險從根本上來說是對組織或人類價值觀的威脅,價值觀很難確定。”
人工智能安全與研究公司Anthropic的聯合創始人杰克·克拉克表示,人工智能的出現產生了對新指標和測量方法的需求,理想的情況是將其融入人工智能技術本身的創造中。“現代人工智能技術的挑戰之一是,需要設計新的測量技術,并與技術本身共同開發。”
管理人工智能風險:培訓數據需要升級
AI RMF的管理內容解決繪制和測量的風險,以最大限度地提高效益和減少不利影響。但ParityAI的首席技術官陳家豪表示,數據質量問題可能會阻礙人工智能的風險管理。“當下的模型培訓數據,可用性不一定適用于現實世界,因為它可能已經過時了幾年。我們必須考慮培訓數據是否真的反映了當今世界的狀態。”
Adobe倫理創新總監Grace Yee說,“對于我們來說,提供世界上最好的技術來創造數字體驗已經不夠了。我們希望確保我們的技術是為包容性而設計的,并尊重我們的客戶、社區和Adobe價值觀。具體來說,我們正在開發新的系統和流程,以評估我們的人工智能是否在制造有害的偏見。”
紐約大學法學院的文森特·索瑟蘭提出,使用擁有預測能力的警務工具可能會出現很大的問題。“這些人工智能系統部署在整個刑事系統中,從確定犯罪者到何時釋放罪犯。但直到最近,人們還沒有從根本上認識到,這些工具所依賴的數據以及這些工具的運作方式實際上有助于加劇種族不平等,并有助于放大刑事系統本身的弊端。”
人工智能治理:很少有組織這么做
在人工智能治理政策方面,bnh.ai的科研人員帕特里克·霍爾表示,在大型消費金融組織和其他幾個高監管的領域之外,人工智能的使用沒有正式的治理指導,因此公司只能自己解決這些棘手的治理問題。
微軟首席人工智能負責人Natasha Crampton:“當你的治理方法過于分散時,失敗的跡象就會顯現出來。在這種情況下,各團隊希望將人工智能模型部署到生產中,但他們只是采用自己的流程和結構,相互之間幾乎沒有協調。”
富國銀行執行副總裁兼企業模型風險主管Agus Sudjianto也強調了高層對人工智能風險治理的重要性。“如果人工智能負責人或管理人員沒有地位、信息來源和高層的支持,談不上治理。”
埃森哲云首席技術師Teresa Tung強調,所有企業都需要關注人工智能。“全球排名前2000內的公司中大約一半的公司在其財報上都提及了人工智能。這是每個企業都需要認識到的。”
與NIST開發的其他風險管理框架(如網絡安全框架)一樣,最終的AI RMF可能會對私營和公共部門產生廣泛的影響。NIST正在向社會征求針對草案的意見,截止日期為2022年4月29日。