最新報告證實稱:如果不謹(jǐn)慎應(yīng)對,人工智能將成為現(xiàn)實版“黑鏡”
根據(jù)一份最新報告所言,目前我們正處于人工智能革命的懸崖邊緣。在這場革命當(dāng)中,我們創(chuàng)造的技術(shù)可能同時呈現(xiàn)出善意、惡意與丑陋的面貌。
這份題為《人工智能的惡意應(yīng)用:預(yù)測、預(yù)防與緩解》的報告長達100頁,于本周二正式發(fā)布,其中包含來自牛津大學(xué)、劍橋大學(xué)、OpenAI以及新美國安全中心等不同機構(gòu)的26位頂尖人工智能專家的真知灼見。
此份報告首先承認了人工智能技術(shù)在某些領(lǐng)域取得的進展,但其同時表示“從歷史角度看,人們對于人工智能惡意使用方式的關(guān)注程度仍然較低。”更具體地講,大家可以參考目前大熱的反烏托邦驚悚劇集《黑鏡》。
劍橋大學(xué)生存風(fēng)險研究中心執(zhí)行董事Seán Ó hÉigeartaigh博士正是該份報告的作者之一,其在另一份聲明中表示,現(xiàn)在確實應(yīng)該開始關(guān)注人工智能技術(shù)的惡意使用議題。
我們到底需要擔(dān)心什么?具體來說,目前與人工智能相關(guān)的部分問題確實呈現(xiàn)出惡化趨勢,例如機器人能夠理解我們的閱讀內(nèi)容、個人感受以及我們的投票對象。Ó hÉigeartaigh博士提到,無人機的濫用狀況要遠比我們想象中的更為普遍,而人工智能支持下的聊天機器人也正通過在線方式大肆獲取用戶信息。他進一步補充稱,人工智能還將提升黑客攻擊活動當(dāng)中對于人類聲音及視頻內(nèi)容的偽造能力,從而生成更多更難以識別的虛假新聞。
牛津大學(xué)未來人類研究所研究員兼報告作者Miles Brundage解釋稱,“一般來講,人工智能系統(tǒng)不僅能夠達到人類的能力水平,甚至還將有所超越。雖然令人不安,但我們完全有必要充分考慮到人工智能在黑客攻擊、監(jiān)視、說服以及物理目標(biāo)識別領(lǐng)域的實際表現(xiàn),同時意識到人工智能與人類相比存在非人性且更具擴展能力的特性。”
正如《黑鏡》劇集所描述,此份報告當(dāng)中還提到了人臉識別技術(shù),探討惡意人士如何利用這種技術(shù)來搜索并打擊目標(biāo)人物——包括使用裝備有爆炸物的無人機或機器人進行暗殺。這聽起來似乎并不現(xiàn)實,但報告作者們認為其確實具備可行性。
援引最近剛剛離開OpenAI董事會的Elon Musk的觀點,研究人員們認為技術(shù)的創(chuàng)造者必須同時考慮到其可能帶來的所有惡意用途。因此,決策者需要充分了解正在開發(fā)的技術(shù)成果,并為其制定倫理框架。最重要的是,人工智能的發(fā)展必須始終保持充分的透明度,確保公眾能夠了解當(dāng)前的實際技術(shù)動態(tài)。