AI戰爭迫近,ChatGPT解除軍用禁令
上周末,人工智能領頭羊企業OpenAI悄悄從ChatGPT使用政策中刪除了禁止應用于軍事用途的條款,這標志著人工智能武器化的潘多拉盒子已經打開。
值得注意的是,在OpenAI新政策曝光前不到一個月,美國國防部副部長希克斯在訪問加州期間曾宣稱,美國軍方與硅谷聯手是“擊敗”中國的關鍵。
過去多年,硅谷科技巨頭始終與軍方刻意保持距離,例如谷歌為了避免卷入軍火生意選擇出售軍方頗感興趣的機器人公司波士頓動力(Boston Dynamics)。而OpenAI在推出ChatGPT后,在其使用政策中也明確表明禁止用于軍事目的。
但是隨著近年硅谷新冷戰思維和“技術民族主義”的盛行,一些科技巨頭陸續放棄與美國政治/軍方保持距離的傳統立場,以此降低政治成本。
打開了AI武器化的潘多拉盒子
1月10日,媒體The Intercept發現OpenAI在“使用政策”頁面中刪除了包括“禁止用于高度人身傷害風險的活動”以及“軍事和戰爭”的內容。
新版“使用政策”雖然保留了“不得使用我們的服務傷害自己或他人,例如開發或使用武器”的禁令,但這更像是針對個人行為的限制,而對“軍事和戰爭”的全面禁令已經被OpenAI刪除。
OpenAI悄悄修改人工智能“使用政策”的做法引發了業界的廣泛猜測,OpenAI發言人Niko Felix在給The Intercept的電子郵件中含混地表示:“我們的目標是創建一套易于記憶和應用的通用原則。”但是,Felix拒絕透露模糊的“傷害”禁令是否涵蓋所有軍事用途。
事實上,決定一場戰爭走勢的,并非武器開發或使用,而是戰場情報處理能力。而這,正是OpenAI避而不談的人工智能最具毀滅性的軍事應用。
網絡安全公司Trail of Bits的工程總監、機器學習和自主系統安全專家Heidy Khlaaf指出:“OpenAI非常清楚在軍事應用中使用ChatGPT技術和服務可能產生的風險和危害。”Khlaaf在2022年與OpenAI的研發人員合著的一篇論文特別強調了AI技術在軍事領域的風險。
Khlaaf補充說,OpenAI的新政策更強調合法性而不是安全性:“新舊政策之間存在明顯區別,舊政策明確規定禁止武器開發、軍事和戰爭應用,而新政策則強調靈活性和遵守法律。”“新政策對人工智能安全的潛在影響是巨大的,因為開發武器以及開展軍事和戰爭活動在不同程度上來說都是合法的。鑒于大語言模型(LLM)存在眾所周知的偏見和幻覺,并且總體上缺乏準確性,在軍事戰爭中的使用會導致不精確和有偏見的行動,可能會加劇傷害和平民傷亡。”
顯然,OpenAI新政策已經“半推半就”地打開了大語言模型武器化的潘多拉盒子。去年,The Intercept曾報道五角大樓和美國情報界對ChatGPT的興趣日益濃厚,但當時OpenAI不愿透露是否會執行明確的“軍事和戰爭”禁令。
AI Now董事總經理,前美聯儲AI政策分析師莎拉·邁爾斯·韋斯特(Sarah Myers West)表示:“鑒于人工智能系統已經在加沙沖突中被用于針對平民,OpenAI選擇在此時從使用政策中刪除‘軍事和戰爭’顯得尤為耐人尋味和影響重大。新政策的措辭含糊不清,引發了業界對OpenAI是否打算執行軍事禁令的廣泛質疑。”
不用直接殺人也能左右戰局
雖然目前OpenAI的人工智能產品還無法用于直接殺人,例如ChatGPT還無法操縱無人機或發射導彈。但是像ChatGPT這樣的大語言模型可以極大增強軍事殺戮機器的威力,例如快速編寫代碼、處理情報、增強指揮控制系統和生成軍事采購訂單。對OpenAI提供的ChatGPT定制機器人的審查報告表明,美國軍事人員已經開始使用這項技術提高文書工作的效率。
此外,為美軍作戰提供地理空間情報的美國國家地理空間情報局(NGA)已公開討論使用ChatGPT來協助人類分析師的可能性。美軍各作戰單元高度依賴NGA的地理情報和數據執行諸如尋找直升機著陸區、戰場監視、目標定位、損害評估等任務,而ChatGPT顯然可以大大加快軍事作戰單元獲取地理情報的速度。因此,即便OpenAI的工具被軍隊部署用于非直接暴力目的,仍然會大大提升軍隊的戰斗力和殺傷力。
蘭卡斯特大學科學技術人類學博士和名譽教授Lucy Suchman認為:“從‘軍事和戰爭’到‘武器’的概念切換為OpenAI打開了參與戰爭基礎設施的空間,只要不直接參與狹義的武器開發,其余(例如指揮控制系統)都是AI大展拳腳的領域”。Suchman是20世紀70年代以來的知名人工智能學者,也是國際機器人武器控制委員會成員,他補充道:“新政策片面強調武器,刻意回避了軍事承包和作戰行動問題,一切不言自明。”
Suchman和MyersWest還特別提及了OpenAI的投資者和合作者微軟公司是美國主要國防承包商之一。微軟迄今為止已向OpenAI投資了130億美元,并轉售該公司的軟件工具。
Intercept指出,OpenAI為AI武器化“開后門”的做法并不令人意外,因為全球各國的軍隊都渴望采用機器學習技術來獲得優勢。五角大樓也在試探性地探索如何使用ChatGPT或其他大型語言模型,這些模型可接受大量書籍資料、手冊、文章和其他網絡數據的培訓,以便模擬人類對用戶提示的反應。盡管像ChatGPT這樣的大語言模型的輸出結果通常非常令人信服,但它們是針對連貫性而不是對現實的準確把握而優化的,因此經常出現所謂的機器幻覺,導致準確性和真實性出現問題。
盡管如此,大語言模型快速攝取文本并快速輸出分析(或至少是分析的模擬)的能力非常適合數據密集型的國防部。
大語言模型的十大軍事用例
盡管美國軍方一些高級官員表達了對機器幻覺和錯誤的憂慮,以及使用ChatGPT分析機密或其他敏感數據可能帶來的安全風險,五角大樓仍然渴望大范圍采用人工智能工具。美國防部副部長凱瑟琳·希克斯(Kathleen Hicks)在去年11月的講話中表示,開啟人工智能是“我和勞埃德·奧斯汀部長從第一天起就一直在推動的以作戰人員為中心的全面創新方法的關鍵任務”。
去年,五角大樓可信人工智能和自主事務首席主任金伯利·薩布隆(Kimberly Sablon)在夏威夷舉行的一次會議上也表示:“(ChatGPT)等大語言模型將為整個軍事領域帶來大量顛覆性的功能。”
美國軍方覬覦的大語言模型十大軍事用例如下:
- 情報分析與處理:LLMs能夠快速處理和分析大量文本數據,如情報報告、通訊攔截和公開源信息,以提取關鍵信息和模式。自動生成軍事行動報告、情況簡報和其他官方文檔。
- 模擬、戰術規劃和演習:利用大語言模型進行戰術和戰略模擬,可以幫助軍事規劃者評估不同沖突情景的可能結果,并優化戰術部署。
- 輿情分析與心理戰:分析社交媒體和網絡上的公眾輿情,用于心理戰和宣傳戰略。在心理戰和信息操作領域,大語言模型可以用于創建針對性的宣傳材料,分析敵方的公共信息以判斷其意圖。
- 語言翻譯與交流:LLMs可以實時翻譯和解碼多種語言,包括少數民族和區域性語言,這在軍事情報收集和國際部隊協作中非常重要。
- 訓練和培訓:大語言模型可以用于創建和管理在線軍事教育和培訓課程,提供定制化學習體驗和自動評估。
- 威脅識別:利用先進的數據分析能力快速識別威脅并進行優先級分類。
- 預測分析:通過分析歷史數據和當前情報,預測敵方行動或地緣政治事件。
- 無人系統指令與控制:用于指揮和控制無人機、無人地面車輛等無人系統。
- 戰術優化與路徑規劃:利用模型分析戰場地形和敵方部署,為部隊行動提供最佳路徑和戰術建議。
- 衛星圖像與空間數據分析:分析來自衛星的圖像和空間數據,以支持偵察和監視任務。