人工智能治理如何在收獲回報的同時降低風(fēng)險
人工智能治理涉及企業(yè)內(nèi)的許多功能和領(lǐng)域,其中包括數(shù)據(jù)隱私、算法偏見、合規(guī)性、道德等方面。因此,企業(yè)解決使用人工智能技術(shù)的治理問題需要在許多層面上采取行動。
塔塔咨詢服務(wù)公司數(shù)據(jù)和分析業(yè)務(wù)負(fù)責(zé)人Kamlesh Mhashilkar說:“人工智能治理并不只在IT層面或項目層面實施,也要得到政府、企業(yè)董事會和首席安全官的重視。”
他指出,例如在醫(yī)療保健領(lǐng)域,人工智能模型必須通過嚴(yán)格的審核和檢查。其他行業(yè)也有適用的法規(guī)。Mhashilkar說,“企業(yè)董事會關(guān)注人工智能治理與經(jīng)濟行為有關(guān),這是因為當(dāng)引入人工智能技術(shù)時,企業(yè)將會面臨一些風(fēng)險。”
至于企業(yè)管理層,有關(guān)人工智能的議程是有目的性的。例如,首席財務(wù)官需要考慮人工智能帶來的股東價值和盈利能力。首席信息官和首席數(shù)據(jù)官也是主要的利益相關(guān)者,企業(yè)市場和合規(guī)負(fù)責(zé)人也是如此,更不用說客戶和供應(yīng)商。
并非所有企業(yè)需要在構(gòu)建人工智能治理戰(zhàn)略的各個方面采取行動。尤其一些規(guī)模較小的公司。盡管如此,各種規(guī)模的企業(yè)都將使用人工智能和相關(guān)技術(shù),即使它們只是嵌入到他們使用的第三方工具和服務(wù)中。
但是如果在未經(jīng)適當(dāng)監(jiān)督的情況下使用人工智能技術(shù)可能出現(xiàn)一些嚴(yán)重錯誤,從而損害業(yè)務(wù)運營、侵犯隱私權(quán),違反行業(yè)法規(guī)或?qū)ζ髽I(yè)帶來不良信譽的影響。
具有前瞻性思維的企業(yè)將人工智能項目從試點擴展到生產(chǎn),并重點關(guān)注數(shù)據(jù)質(zhì)量、算法性能、合規(guī)性和道德規(guī)范。以下是他們需要解決的人工智能治理問題:
人工智能的道德問題
如今,很少有哪個領(lǐng)域比面部識別領(lǐng)域面臨更多的道德方面的問題。其技術(shù)濫用的可能性很大,提供面部識別技術(shù)的一些企業(yè)正受到公眾的抵制,有時還受到自己員工的抵制。
Patriot One科技公司的子公司Xtract AI公司就面臨著這種情況,該公司使用圖像識別技術(shù)來識別攜帶武器的人員。
Xtract AI公司運營副總裁Justin Granek表示,面部識別技術(shù)還可以用于其他場合,例如識別不遵守面具或社交疏導(dǎo)準(zhǔn)則的人員。
他說,“對于我們來說,道德是一個主要的話題。例如我們的員工說:‘我們正在做些什么?’,這迫使我們需要制定人工智能治理的政策。”
他指出,“客戶有自己的一些要求,需要確定一個平衡點。加拿大國防部是我們的客戶之一,我們還有一些醫(yī)療保健領(lǐng)域的客戶。他們正在從不同的角度看待它。”
他表示,該公司面臨最大的問題是要為哪些客戶工作,以及面部識別技術(shù)應(yīng)該應(yīng)用在哪些方面?這是一個與企業(yè)使命有關(guān)的重要決定。但是還必須解決一些技術(shù)問題,這些問題的起因都是數(shù)據(jù)。
正確獲取數(shù)據(jù)
算法偏差的最大來源是數(shù)據(jù)集。例如,對于面部識別技術(shù)來說,其數(shù)據(jù)集并不代表一般人群。Granek說,“我們發(fā)現(xiàn),采用數(shù)據(jù)集更加關(guān)注白人男性,這種情況已經(jīng)得到糾正,但還有很多工作要做。”
Granek表示,專家可以幫助解決數(shù)據(jù)偏差問題,商業(yè)數(shù)據(jù)提供商正在努力填補他們提供數(shù)據(jù)的空白。也有創(chuàng)建合成數(shù)據(jù)集的方法,但其解決辦法往往是從外部獲得更好的數(shù)據(jù)。
對于Xtract AI公司的槍支檢測算法來說,這意味著需要設(shè)置一個實驗室,而在實驗室中攜帶槍支的人員需要混雜在人群中。
他說:“這種方法就好像是好萊塢電影中在人群中尋找持槍歹徒的畫面,我們的人工智能系統(tǒng)需要在人群中進(jìn)行識別,但這并不代表事情的真相。”
取而代之的是,Xtract AI公司努力收集大量的個人資料作為訓(xùn)練數(shù)據(jù)。Granek說,“對于可能攜帶武器的人員沒有任何規(guī)定。我們的測試人員有一些學(xué)生,還有一些年紀(jì)較大的人,總之我們需要采集不同的群體的數(shù)據(jù)。”
對于某些人工智能應(yīng)用程序來說,具有代表性的準(zhǔn)確數(shù)據(jù)集可能是生與死之間的區(qū)別,并具有重大的道德和倫理意義。但是,即使不良數(shù)據(jù)集的影響不會導(dǎo)致發(fā)生公共災(zāi)難,仍然有可能對企業(yè)造成運營影響或財務(wù)損失,或?qū)е卤O(jiān)管或合規(guī)性問題。
這是總部位于墨西哥的Cemex公司關(guān)注的問題,Cemex公司是世界上最大的建筑材料分銷商之一,已有100多年的經(jīng)營歷史。該公司正在通過在供應(yīng)鏈管理和運營中使用人工智能來重塑自己。大約三年前,Cemex公司開始研究人工智能和相關(guān)技術(shù),以擴大其市場份額,改善客戶服務(wù),提高利潤。
該公司首席人工智能官Nir Kaldero說:“我們這兩年實際上在全球范圍內(nèi)看到了人工智能的價值,而不僅僅是在小規(guī)模試點項目中。”
他說,隨著人工智能技術(shù)融入該公司的經(jīng)營理念之中,Cemex公司意識到有必要圍繞人工智能建立治理結(jié)構(gòu)。
Kaldero說:“這一切都始于數(shù)據(jù)。沒有良好的信息架構(gòu),就不會有良好的、可靠的人工智能。沒有良好的信息,就無法擁有良好可靠的模型。”
Cemex公司的數(shù)據(jù)治理涵蓋了安全性、監(jiān)控、隱私、合規(guī)性和道德規(guī)范,并且需要知道數(shù)據(jù)位于何處,在何處使用以及如何使用,是否符合法規(guī)要求以及是否沒有偏見。
Kaldero表示,Cemex公司依靠Snowflake云數(shù)據(jù)平臺管理數(shù)據(jù)。該公司有一位高管專門負(fù)責(zé)數(shù)據(jù),另一位高管則負(fù)責(zé)治理團隊的治理。
正確設(shè)置模型
除了數(shù)據(jù)治理之外,Cemex公司開始圍繞人工智能模型和結(jié)果創(chuàng)建人工智能治理策略。Kaldero說,“這些新的東西,不僅對于Cemex公司來說,而且對于整個世界也是如此。”
這項任務(wù)由Kaldero帶領(lǐng)的人工智能和數(shù)據(jù)科學(xué)小組以及首席信息官帶領(lǐng)的小組共同承擔(dān)。Cemex公司當(dāng)前使用人工智能技術(shù)來預(yù)測其產(chǎn)品需求,因此可以通過與供應(yīng)商協(xié)商更好的交易來節(jié)省成本。它還將人工智能用于卡車的路線安排和調(diào)度以及銷售和定價。如果這些計算中的任何一項出現(xiàn)錯誤,該公司將蒙受大量損失。
因此,為了防止模型漂移和算法偏差,Cemex公司使用了基于Seattle的Algorithmia的技術(shù)。
KenSci公司是另一家關(guān)注人工智能模型后果的公司。總部位于西雅圖的KenSci公司使用人工智能技術(shù)分析醫(yī)療保健數(shù)據(jù),在這個領(lǐng)域中,準(zhǔn)確的人工智能模型實際上面對的是生死攸關(guān)的問題。
該公司首席數(shù)據(jù)科學(xué)家Muhammad Aurangzeb Ahmad說:“我們總是從與不同利益相關(guān)者一起審查人工智能模型的目標(biāo)開始。為確保這些模型透明并且負(fù)責(zé)任,可解釋性是一個核心組成部分。我們甚至發(fā)布了一個開源Python軟件包fairMLHealth,任何人都可以使用它來衡量機器學(xué)習(xí)模型的公平性。”
Ahmad還建議審核人工智能模型在不同群體之間的表現(xiàn),以確保公平對待少數(shù)群體和其他弱勢群體。
他說:“人工智能模型的透明度和可解釋性使它們更容易被最終用戶使用和信任。而且更易于審核,并在需要時進(jìn)行更正。”
人工智能與道德
制定人工智能治理策略時要考慮的另一個關(guān)鍵領(lǐng)域是人工智能使用的道德規(guī)范。Ahmad說,“有關(guān)人工智能的法規(guī)并沒有跟上技術(shù)的發(fā)展,機器學(xué)習(xí)系統(tǒng)的創(chuàng)造者有責(zé)任將機器學(xué)習(xí)系統(tǒng)的價值與道德目標(biāo)結(jié)合起來。當(dāng)需要權(quán)衡時,我們應(yīng)該謹(jǐn)慎行事。”
數(shù)字服務(wù)咨詢機構(gòu)Nerdery公司首席技術(shù)官Joe Tobolski認(rèn)為,越來越多的企業(yè)意識到人工智能的潛在道德風(fēng)險。他說,“但是,企業(yè)是否完全了解自己正在運行的系統(tǒng)以及所擁有的培訓(xùn)數(shù)據(jù)?可能并不是這樣。”
很少有企業(yè)擁有明確的人工智能道德規(guī)范以適用于其人工智能項目、數(shù)據(jù)源和技術(shù)使用。他說:“這就是我們希望去做的事情,為解決這些問題建立一個強大的、經(jīng)過整理的框架。”
Cemex公司的主要業(yè)務(wù)是研究限制和阻礙人工智能使用的問題,以最大程度地減少潛在的道德問題。例如,該公司正在優(yōu)先考慮改善服務(wù)和幫助客戶的項目,而不是僅僅減少企業(yè)員工的項目。
他說:“員工是企業(yè)的中心,而不是技術(shù)。我們可以使所有的客戶呼叫中心自動化,但這不符合我們的利益。Cemex公司對于能為更多員工提供工作機會而感到自豪。在我們公司的使命中,這是一件很美好的事情。
選擇人工智能項目會對員工產(chǎn)生積極影響。對于人工智能而言,這是一項巨大的創(chuàng)舉。Cemex公司對于人工智能技術(shù)所犯錯誤的研究,已經(jīng)顯著地減少了事故數(shù)量,而使其減少犯錯的方法是采用圖像識別技術(shù)。”
人工智能治理策略
對于總部位于馬薩諸塞州的人壽保險商MassMutual公司來說,人工智能治理是基于一套不斷發(fā)展的數(shù)據(jù)道德原則,這些原則指導(dǎo)著企業(yè)的行動和決策。
該公司數(shù)據(jù)、戰(zhàn)略和架構(gòu)負(fù)責(zé)人Sears Merritt說:“我們專門為使用人工智能制定了一套原則,以使業(yè)務(wù)發(fā)展與企業(yè)價值和保單持有人的利益保持一致。我們還建立了一個團隊,通過創(chuàng)建政策框架來監(jiān)督人工智能的使用。”
大約一年前,MassMutual公司開始研究人工智能的道德規(guī)范和治理,當(dāng)時該公司意識到需要證明并確保使用人工智能為其保單持有人帶來利益。
Merritt現(xiàn)在帶領(lǐng)著一個由6名專家組成的團隊,其中包括人工智能倫理和治理顧問,他們追蹤人工智能算法是否遵守治理原則,以及它們?nèi)绾坞S著時間推移而發(fā)生的變化,從而為該公司已經(jīng)遵循的方法創(chuàng)建正式的框架。
Merritt說:“我們相信我們的工作會對所有利益相關(guān)者產(chǎn)生巨大影響。”他建議,人工智能治理需要從與企業(yè)價值觀和客戶利益保持一致的核心原則入手,并與法律、合規(guī)性、道德和商業(yè)合作伙伴一起實施。
他說,MassMutual公司下一步的計劃將其框架推廣為行業(yè)最佳實踐。
設(shè)置護(hù)欄的重要性
Booz Allen Hamilton公司高級副總裁John Larson表示,人們關(guān)于人工智能治理的許多最佳實踐可能會有些熟悉。
他說:“我從業(yè)已有25年的時間,如今開發(fā)人工智能軟件和算法采用的是以前就存在的原理。但是以前不存在的是收集數(shù)據(jù)的速度、處理能力和學(xué)習(xí)算法。”
企業(yè)訓(xùn)練數(shù)據(jù)的人工智能系統(tǒng)通常使用比以往更大的數(shù)據(jù)集,并且由于當(dāng)今業(yè)務(wù)的數(shù)字化,數(shù)據(jù)正以前所未有的速度從網(wǎng)站、網(wǎng)絡(luò)傳感器、物聯(lián)網(wǎng)設(shè)備和其他來源進(jìn)入人工智能系統(tǒng)。
處理這些數(shù)據(jù)的能力也比以往任何時候都要顯著提高,這在很大程度上要歸功于可以無限擴展的云計算資源。
最后,某些人工智能系統(tǒng)的反饋性質(zhì)意味著它們實際上是在實踐中學(xué)習(xí),而這些學(xué)習(xí)可以把它們帶到意想不到的方向,其速度之快讓人們無法想像。
Larson說:“現(xiàn)在人工智能治理模式與25年前的治理模式的原則是相同的,但它們不能只是適應(yīng)所面臨的挑戰(zhàn)。其解決方案是在人工智能系統(tǒng)中建立自動化的保障措施。”
例如,開發(fā)人員可以設(shè)置護(hù)欄。如果人工智能模型的預(yù)測精度超出預(yù)定目標(biāo),或者模型在設(shè)計參數(shù)范圍內(nèi)停止運行,則可能需要某種形式的干預(yù)。同樣,如果進(jìn)入人工智能系統(tǒng)的數(shù)據(jù)不再反映所需的特性,則需要發(fā)出警報,以重新評估數(shù)據(jù)源,或選擇更適合傳入數(shù)據(jù)的不同模型。
對于人工智能系統(tǒng)還有其他監(jiān)控方式。例如,測試被禁止的相關(guān)性(如種族、年齡或宗教信仰)的最終建議,有助于在問題導(dǎo)致監(jiān)管罰款或公共關(guān)系災(zāi)難之前發(fā)現(xiàn)問題。
Larson說:“谷歌和微軟等一些公司已經(jīng)開發(fā)了一些工具,它們可以評估模型是否偏向某些事物。Booz Allen公司也正在開發(fā)一些工具套件,并試圖為我們的數(shù)據(jù)科學(xué)家提供工具。”
Loeb&Loeb律師事務(wù)所隱私和安全業(yè)務(wù)合伙人兼聯(lián)席主席Jessica Lee表示,任何良好的人工智能治理計劃都需要明確所有權(quán)和問責(zé)制。
她說:“誰將主導(dǎo)這項計劃,如何糾正這些錯誤?企業(yè)需要回答這些問題。雖然不能保證能夠避免算法、偏見、歧視性結(jié)果或其他傷害帶來的意外后果。但良好的人工智能治理肯定會有所幫助。”