美國拒簽“巴黎聲明”,撕開全球AI競賽三大裂痕
2月11日,法國巴黎人工智能行動峰會落下帷幕,61國簽署的《關于發展包容、可持續的人工智能造福人類與地球的聲明》(下稱《巴黎聲明》),美英兩國卻選擇了拒簽和“退群”。這場看似尋常的國際峰會,撕開了全球AI競賽的三重裂痕:技術路線之爭、治理權博弈與安全觀對撞。
一、美式AI霸權:為何拒絕“可持續”緊箍咒?
在巴黎,包括中國、印度、德國等60多個國家簽署的聯合聲明中提出的優先事項之一是“加強國際合作,促進國際治理協調”。簽署該文件的某國家員表示,這種措辭讓美國感到不滿,因為美國根本不接受AI治理的多邊主義和國際合作。該官員表示,美國還擔心法國在峰會期間啟動的基金會“Current AI”會被用來向法語國家輸送資金。
美國副總統萬斯(JD Vance)在峰會上向世界各國領導人和科技高管表示:“特朗普政府將確保最強大的人工智能系統在美國建立,并采用美國設計和制造的芯片?!?/p>
“美國不會用國際條約束縛自己的AI領導者地位。”萬斯在峰會上的表態,揭開了特朗普政府拒簽《巴黎聲明》的底層邏輯——這是一場“美國優先”與“全球治理”的路線戰爭。
牛津互聯網研究所研究人工智能地緣政治的講師基根·麥克布萊德(KeeganMcBride)表示,萬斯的講話“與拜登政府的態度發生了180度大轉彎”。
技術原教旨主義的復活
特朗普政府的AI戰略核心是“去監管化”。在萬斯的演講中,“市場自由”被反復提及,其潛臺詞是:任何可能延緩美國企業創新速度的規則都應被排除。這種立場與歐盟形成鮮明對比——后者正推動全球最嚴AI監管法案,要求高風險AI系統必須通過透明度審查和人工監督。
“美國科技公司想要‘無摩擦創新’,而歐洲想要的是‘可剎車創新’?!比諆韧邍H治理中心研究員Martin Müller指出。這種分歧在算力與能源的綁定上尤為尖銳:當法國總統馬克龍強調“用核能驅動綠色AI”時,美國卻對“可持續”一詞避之不及,背后原因是特朗普政府對化石能源的政策傾斜。
DeepSeek破局,歐盟迎來歷史性機遇
美國拒簽的主要動機之一,是阻止中國借國際框架擴大話語權,尤其是在DeepSeek顛覆美國AI霸權的當下。中國代表在峰會晚宴上呼吁“秉持AI公益性原則”,而萬斯則在演講中暗指“專制政權”可能濫用AI技術。這種將技術和經濟問題政治化的對抗性敘事背后,是兩國在基礎模型領域的貼身纏斗:
- OpenAI的GPT-5訓練成本突破20億美元,而中國深度求索(DeepSeek)僅用1/10成本實現可比性能;
- 美國商務部正醞釀對華AI芯片禁運升級,試圖鎖死算力差距。
“《巴黎聲明》的‘包容性’原則可能為中國參與規則制定打開缺口,這是華盛頓無法接受的?!鼻鞍讓m科技政策顧問Tom Kalil指出。
中美博弈的“規則真空”和DeepSeek的橫空出世給AI的第三極——歐洲帶來了戰略機遇。歐洲一直尋求在人工智能行業站穩腳跟,以避免過度依賴美國或中國。
“馬克龍主持的AI峰會的宣傳重點是推動替代美國主導的人工智能技術發展?!比斯ぶ悄苎芯繖C構AI Now Institute的歐盟和全球治理高級負責人弗雷德里克·卡爾特霍伊納(Frederike Kaltheuner) 表示:“在DeepSeek發布強大的開源模型后,歐洲人迎來了稍縱即逝的在人工智能領域競爭的機會?!?/p>
在法國總統馬克龍主持的為期兩天的峰會上,歐洲領導人和企業公布了在數據中心和計算集群方面約2000億歐元的計劃投資,以支持歐洲的人工智能發展。
二、安全陷阱:當AI軍備競賽失去剎車片
美國拒簽的代價,可能是全球AI安全治理的全面失序。
軍用AI的“黑箱化”
五角大樓2025財年預算顯示,AI軍事應用撥款增至180億美元,涵蓋自主無人機群、AI目標識別系統等領域。而《巴黎聲明》中“禁止自動化殺人武器”的條款因美英反對被刪除。缺乏國際約束下,AI軍事化正滑向危險邊緣:
- 以色列軍方已在加沙使用AI系統生成空襲目標清單,誤傷率引發爭議;
- 俄羅斯“Marker”戰斗機器人配備自主開火模塊,倫理審查機制缺失。
“沒有全球安全框架,AI可能讓戰爭變成算法游戲?!眴讨纬谴髮W安全與新興技術中心(CSET)高級研究分析師Lauren Kahn警告。
企業“精神分裂”
- 微軟、谷歌為滿足歐盟《人工智能法案》,不得不在歐洲設立獨立合規團隊,導致研發成本增加15%;
- 亞馬遜AWS在弗吉尼亞州的數據中心因碳排放激增,遭環保組織起訴,被迫加速采購核能。
“我們像是在兩個平行宇宙中運營?!币晃还韫華I公司高管吐槽,“加州總部追求極致性能,布魯塞爾辦公室卻要證明算法不會搞性別歧視?!?/p>
三、未來戰爭:誰能定義AI的“安全”?
巴黎峰會的真正遺產,或許是揭示了AI競賽的終極戰場——不是算法或算力,而是規則的制定權。
美國的“自由放任”與歐盟的“謹慎監管”能否共存?中國的“發展優先”如何平衡安全風險?這些問題尚無答案。但可以確定的是,當AI開始重塑戰爭、能源與國際權力時,沒有國家能真正獨善其身。
唯一的問題是:在技術失控前,人類還剩多少時間踩下剎車?誰能夠阻止“剎車焊死”的美國AI霸權主義?