人工智能(AI)可信嗎?
?人工智能比智能更人工
2022年6月,微軟發布了微軟責任人工智能標準v2,其發布目的是“定義負責任人工智能的產品開發需求”。也許令人感到驚訝,該文件只提到了人工智能中的一種偏差,即微軟的算法開發人員需要意識到,過度依賴人工智能的用戶可能會提出的問題(亦稱為“自動化歧視”)。
簡而言之,微軟似乎更關心用戶針對其產品的看法,而不是產品實際上對用戶產生的不利影響。這是良好的商業責任(不要對我們的產品說任何負面的話),但社會責任較差(有許多例子表明算法歧視對個人或個人群體產生負面影響)。
商業人工智能有三個尚未解決的主要問題:
- 隱藏的偏差造成虛假結果;
- 被用戶或攻擊者濫用的可能性;
- 算法返回太多的誤報,以至于抵消了自動化的價值。
學術界的擔憂
當人工智能首次被引入網絡安全產品時,它被描述為防護銀彈。毫無疑問,AI肯定有它的價值,但隨著一些出錯的算法、隱藏的歧視,以及罪犯對AI的濫用,甚至是執法和情報機關對隱私窺探,反對AI的聲音越來越強烈。
根據在2022年6月6日《科學美國人》的說法,問題在于一門仍在發展的科學的商業化:
人工智能領域最大的研究團隊不在學術界,而是出現在企業中。在學術界,同行評議是王道。與大學不同,企業沒有公平競爭的動機。他們不是將新的學術論文提交學術審查,而是通過新聞稿吸引記者,并跨過同行評議流程。我們只知道企業想讓我們知道的。
--紐約大學心理學和神經科學教授加里·馬庫斯
結果就是,我們只聽到了人工智能的積極方面,但沒有聽到人工智能的消極方面。
喬治敦法學院隱私與技術中心執行主任艾米莉·塔克也得出了類似的結論:“從今天開始,我們中心將停止在工作中使用術語‘人工智能’、‘AI’和‘機器學習’,以暴光并減輕數字技術在個人和社區生活中的危害……作為獲得資本的一種戰略手段,科技公司如此成功地扭曲圖靈測試的原因之一,在于政府渴望獲得科技所賦予的無處不在的監督權。這種監督權行使起來方便、成本也相對便宜,并且可以通過規避民主決策或監督的采購流程獲得。”
簡而言之,對利潤的追求阻礙了人工智能的科學發展。面對這些擔憂,我們需要問問自己,是否可以相信產品中的人工智能輸出的是準確的信息和沒有偏差的判斷,而不是被人們、罪犯,甚至是政府所濫用。
人工智能的失敗
案例1:一輛特斯拉自動駕駛汽車直接駛向一名手持停車標志的工人,只有在司機進行干預時才會減速。原因在于,人工智能被訓練識別人類和識別停車標志,但沒有被訓練識別攜帶停車標志的人類。
案例2:2018年3月18日,一輛優步自動駕駛汽車撞死了一名推著自行車的行人。根據NBC當時的說法,人工智能無法“將物體歸類為行人,除非該物體靠近人行橫道”。
案例3:2020年英國新冠肺炎封閉期間,學生們的考試成績由人工智能算法來評判。大約40%的學生成績比預期的要低得多。這是因為,算法過分重視各學校的歷史成績。因此,相比其他學校,私立學校和以前成績優異的公立學校的學生獲得了很大的評分優勢。
案例4:Tay是微軟于2016年在Twitter上推出的一款人工智能聊天機器人,通過模仿真實人類的語言,Tay的目標是成為一個可以理解俚語的智能交互系統。但在短短的16個小時的真人互動之后,Tay就被迫下線。它在推特上寫道“希特勒憎恨猶太人是正確的”。
案例5:選擇候選人。亞馬遜希望AI幫助其自動選擇填補職位空缺的候選人,但該算法的結果是性別歧視和種族歧視,偏向白人、男性。
案例6:錯誤的身份。新冠疫情封閉期間,一支蘇格蘭足球隊在線直播了一場比賽,使用的是基于人工智能的攝像頭跟蹤足球。但這個AI拍攝系統不斷地把邊裁的光頭當做足球,拍攝焦點總是集中在這位邊裁身上,而不是比賽。
案例7:申請拒絕。2016年一位母親申請昏迷半年后醒來的兒子搬進她所居住的公寓,卻遭到住房中心的拒絕。兒子被送到康復中心一年之后,才通過律師弄清原因。住房中心使用的人工智能認為兒子有盜竊記錄,所以將其列入住房黑名單。但實際上兒子一直臥病在床,根本無法實施犯罪。
類似的例子還有很多,究其原因無非兩種,一是由意外偏差引起的設計失敗,二是學習失敗。自動駕駛汽車的案例是學習失敗。雖然隨著學習次數的增加可以校正錯誤,但在校正之前,一旦投入使用可能要付出沉重的代價。但如果想完全避免風險的話,意味著永遠也無法投入使用。
案例3和案例5則屬于設計失敗,意料之外的偏差扭曲了結果。問題在于,開發人員是否能夠在不知道自己存在偏見的情況下,去除他們的偏見。
人工智能的誤用和濫用
誤用意味著人工智能的應用效果并非開發人員的本意。濫用則意味著故意去做,例如污染喂給人工智能的數據。一般而言,誤用通常由AI產品所有者的行為,而濫用往往涉及第三方(如網絡罪犯)的行為,導致產品受到并非所有者本意的操縱。我們先來看看誤用的情況。
誤用
Vectra AI的研究負責人Kazerounian認為,當人類開發的算法試圖對其他人進行判斷時,隱藏的偏差是不可避免的。比如在信用申請和租賃申請方面,美國有著悠久的紅線和種族主義歷史,這些歧視政策在基于人工智能的自動化之前早已存在。
而且,當偏見深入到人工智能算法中時,比起人的偏見,更難發現和理解。“你也許可以在深度學習模型中看到矩陣運算得出的分類結果。但人們只能解釋運算的機制,卻解釋不了原因。它只是解釋了機制。我認為,站在更高的層面上,我們必須問的是,有些事適合交給人工智能去做嗎?”
2022年5月11日,麻省理工學院與哈佛大學發表在《柳葉刀》上的一項研究,證實了人們無法理解深度學習是如何得出結論的。該研究發現,人工智能僅依靠醫學圖像(如X射線和CT掃描),就能夠識別種族,但沒有人知道AI是如何做到這一點的。再往后想一下,在確定患者的人種、族裔、性別甚至是否被監禁等方面,AI醫療系統的做法可能要遠超我們的想象。
哈佛醫學院醫學副教授、作者之一安東尼·塞利評論道,“僅僅因為你的算法中有不同群體的表征(數據的質量和有效性),并不能保證它可以永遠如此,也不能保證它會放大已有的差異和不平等。用表征學習為算法提供更多數據并非萬靈藥。這篇論文應該讓我們停下來,真正重新考慮我們是否準備好將人工智能應用在臨床診斷。”
這個問題也波及到了網絡安全領域。2022年4月22日,微軟在其產品路線圖中添加了一個名為“離職者分類器”的功能。該產品預計將于2022月9月上市。“離職者分類器可以早期檢測出意圖離開組織的員工,以減少由于員工離職帶來的有意或無意的數據泄露風險。”
當有媒體嘗試以人工智能與個人隱私為主題采訪微軟時,卻得到了這樣的回答:“微軟目前沒有什么可以分享的,但如果有新消息我們會讓你及時了解。”
在倫理方面,必須考慮的是,用AI來做離職的意圖推測,是否是對技術的正確使用。至少大多數人認為,通過監控通信來確定某人是否正在考慮離職,是一件正確或合適的事情,尤其是結果可能造成負面影響。
而且,算法中的意外偏差很難避免,甚至更難檢測。既然預測某人是否會離職,連人類都難以有效判斷個人動機,為什么人工智能系統就不會犯錯呢?而且,人們在工作中的溝通有著各種說話的方式,假設、玩笑、氣憤,或者談論他人。即便是去招聘網站更新簡歷,也可能只是腦中的一個閃念。一旦被機器學習判定為高離職可能性的員工,那就很可能在經濟衰退時首先要解雇的人員,并與加薪或升職無緣。
還有一個更為廣泛的可能性。如果企業可以擁有這種技術,執法機構和情報機構自然也會有。同樣的判斷錯誤也可能發生,而且后果要比升職加薪嚴重的多。
濫用
Adversa.ai的創始人兼首席執行官亞歷克斯·波利亞科夫,則更擔心通過操縱機器學習過程對AI的濫用。“通過科學家們進行的研究,以及我們的人工智能紅隊(指扮演攻擊方的角色)的真實評估工作都可以證明,愚弄人工智能的決策,不管是計算機視覺還是自然語言處理或者是其他任何事情,修改一組非常小的輸入就足夠了。”
比如,“eats shoots and leaves”這幾個單詞,只需加上不同的標點符號,就可以表示素食者或是恐怖分子。對于人工智能來說,想要窮盡所有單詞在所有語境下的含義,幾乎是一個不可能的任務。
此外,波利亞科夫已經先后兩次證明了愚弄人臉識別系統是多么容易。第一次讓人工智能系統相信面前各種人都是埃隆·馬斯克,第二次的例子是用一張人類看上去明顯是同一張圖像,卻被人工智能解讀為多個不同的人。其中的原理,即操縱人工智能學習過程的原理,幾乎可以被網絡罪犯應用到任何人工智能工具。
歸根結底,人工智能只是人類教授的機器智能,我們離真正的人工智能還有很多年,即使我們不去討論真正的人工智能是否能實現。就目前而言,人工智能應該被當作一種將許多有規律的人類工作進行自動化處理的工具,畢竟它與人類一樣會有著類似的成功率和失敗率。當然,它的速度要快得多,而且成本也要比昂貴的分析師團隊低的多。
最后,不管是算法偏差還是AI被濫用,所有使用人工智能的用戶都應該考慮這樣一個問題:至少在目前階段,我們不能過度依賴人工智能的輸出結果。