人工智能:對抗種族主義的下一個前沿?
距離全球被喬治·弗洛伊德(George Floyd)被跪害慘案震驚僅僅過了三個月。在美國的集體記憶中,白人警官跪在黑人公民身上8分鐘46秒的畫面仍然歷歷在目。
這并不是美國首例種族歧視的警察暴行。不幸的是,它也不是最后一個。
種族主義在這個國家有很深的淵源。這是一種潰爛的傷口,要么被忽略,要么用感染性藥物治療。美國的制度種族主義沒有盡頭,而且更糟的是,這種疾病正在尋找新的傳播途徑。
甚至被認為是現代歷史上最大的技術突破之一的人工智能,也繼承了一些在社會上普遍存在的偏見。
AI可以被偏見嗎?
如果是在早些年,說計算機程序存在偏見似乎聽起來荒謬的。畢竟,為什么任何軟件都會關心某人的種族、性別和膚色?但是那是在機器學習和大數據授權計算機做出自己的決定之前。
現在,算法正在增強客戶支持,重塑當代時尚,并為從法律和秩序到城市管理的所有流程都可以自動化的未來鋪平道路。
Namobot網站的邁克爾·雷諾茲(Michael Reynolds)解釋說:“我們面臨著一個非?,F實的機會,即AI反烏托邦。”該網站通過大數據和算法來生成博客名稱。 “包含人類解釋和認知評估的錯誤數據集會使機器學習模型將人類偏見轉化為算法。”
這不是遙不可及的事,但已經在發生。
算法偏差的不幸示例
風險評估工具通常用于刑事司法系統中,以預測重罪犯再次犯罪的可能性。從理論上講,這種少數派報告類型的技術用于威懾未來的犯罪。但是,批評家認為這些程序會傷害少數群體。
ProPublica在2016年對其進行了測試,當時它檢查了7000多人的風險評分。該非營利組織分析了在佛羅里達州布勞沃德縣被捕了兩年以上的囚犯的數據,以了解在接下來的幾年中誰被指控犯有新罪行。
結果表明許多人已經過于擔心了。根據該算法,黑人被告犯罪的可能性是白人的兩倍。但事實證明,只有20%的人預計會從事犯罪活動。
同樣,警察使用的面部識別軟件最終會嚴重影響非裔美國人。根據美國聯邦調查局(FBI)合著的一項研究,在西雅圖等城市使用的面部識別對黑人的準確性可能較低,從而導致身份識別錯誤和誤捕。
算法偏差不僅限于司法系統。黑人通常被剝奪了為改善患有復雜疾病的患者提供醫療服務的程序。同樣,在相同疾病下,與白人患者相比,這些程序不太可能將黑人患者轉介給黑人患者。
簡而言之,科技公司正在將自己的偏見注入系統。旨在做出基于數據的公平決策的確切系統。
那么,如何解決這種情況呢?
透明度是關鍵
算法偏差是一個復雜的問題,主要是因為很難觀察到。程序員常常困惑于發現他們基于性別和膚色對人的歧視算法。去年,史蒂夫·沃茲尼亞克(Steve Wozniak)透露,蘋果給他的信用額度是他妻子的10倍,盡管她的信用評分更高。
消費者很少會發現這種差異。審查人工智能部分歧視的研究也需要大量時間和資源。因此,倡導者要求在整個系統的運行方式上提高透明度。
該問題值得在全行業范圍內解決,但在此過程中仍存在障礙。即使發現算法存在偏差,企業也不允許其他人分析數據,并且調查不夠徹底。蘋果公司表示將調查沃茲尼亞克問題,但到目前為止沒有任何進展。
提高透明度將要求企業向觀察員透露他們的訓練數據或接受第三方審核。程序員還可以選擇主動進行測試,以確定將其系統應用到屬于不同背景的個人時的方式。
為了確保一定程度的透明度,用于訓練AI的數據和用于評估AI的數據應公開。在政府事務上,做到這一點應該更容易。但是,企業界會拒絕這種想法。
數據多元化
根據紐約大學研究中心發表的一篇論文,人工智能缺乏多樣性已經到了“思考的時刻”。研究表明,由于這個原因,AI領域絕大多數是白人和男性,因此有重新確立權力失衡和歷史偏見的風險。
該報告的作者凱特·克勞福德解釋說:“AI行業必須承認局勢的嚴重性,并承認其現有方法未能解決這些問題。”
由于Facebook和Microsoft都擁有4%的黑人勞動力-很明顯,在AI領域中少數民族沒有得到公平的代表。研究人員和程序員是一群具有一定特權的同質人群。
如果資源池多樣化,那么數據將更能代表我們所居住的世界。算法將獲得當前被忽略的觀點,并且AI程序的偏見將大大減少。
總結
是否有可能創建一種完全沒有偏見的算法?可能不會。
人工智能是由人類設計的,人們永遠不會真正偏見。但是,由優勢群體的個人創建的程序只會幫助使針對少數群體的不公正現象長期存在。
為確保算法不會成為針對黑人和西班牙裔社區的壓迫工具,應推動公共和私人機構保持一定的透明度。
大型技術必須具有多樣性,并能提升屬于少數族裔的程序員,這也是當務之急。這樣的舉動可以拯救我們的社會,使其免于成為AI反烏托邦。