美國一委員會建議不應禁止發展AI武器,理由是“道德義務”
美國政府的一個委員會提交報告草案稱,美國不應禁止使用或開發由人工智能(AI)驅動的自動武器。該委員會給出的理由是“道德義務”,即預計人工智能比人類犯的錯誤更少,因此可以減少傷亡人數。
據路透社1月27日報道,美國人工智能國家安全委員會26日結束了為期兩天的公開討論。該委員會副主席、美國前國防部副部長羅伯特·沃克表示,預計自動武器在戰斗中犯的錯誤會比人類少,這樣能夠減少因錯誤識別目標導致的傷亡或小規模沖突。沃克表示:“至少(要)追求這一假設,這是一種道德義務(moral imperative)。”
同時,該委員會承認了自動武器的風險。委員會中一名來自微軟公司的成員警告,制造這種能快速反應武器的壓力可能會使沖突升級。
路透社報道指出,自動武器已經有數十年的研發歷史。但隨著人工智能用來支持自動武器系統、研究發現人工智能含有偏見、出現人工智能軟件濫用現象,人們的擔憂也與日俱增。
也有一些人反對人工智能武器。一些非政府組織近年來發起了名為“停止機器人殺手行動”(Campaign to Stop Killer Robots)的活動,希望推動出臺禁止“機器人殺手”的條約。他們認為,在判斷攻擊是否正當以及認定戰爭罪責過程中,人類的控制十分必要。
路透社援引“停止機器人殺手行動”網站的信息稱,巴西、巴基斯坦等30個國家希望制定相關禁令,聯合國下屬的一個機構至少在2014年就舉行了相關會議。
除了人工智能驅動的武器之外,美國人工智能國家安全委員會還建議情報機構使用人工智能,以提高收集和審查數據的效率;呼吁聯邦政府每年為人工智能研究提供320億美元(約合人民幣2067.5億元)的資助等。
該委員會將于3月向國會提交最終報告,不過這些建議并不具法律效力。據該委員會網站信息,其成員由美國國會和國防部、商務部指派,谷歌公司前首席執行官埃里克·施密特擔任主席。