OpenAI死里逃生?加州AI法案剛剛被斃,LeCun李飛飛吳恩達(dá)狂喜
重磅!
今天凌晨,美加州州長(zhǎng)Gavin Newsom正式宣告:否決SB-1047法案!
對(duì)于全世界開發(fā)者們來(lái)說(shuō),SB-1047法案取消,意味著Meta、谷歌等大廠的開源模型,再次繼續(xù)可用。
這個(gè)決定可謂是眾望所歸。AI圈大佬們激動(dòng)地奔走相告,在否決中出了大力的吳恩達(dá)、LeCun、李飛飛,則尤其開心。
加州州長(zhǎng)否決意味著什么?
SB-1047法案就真的終結(jié)了。
「臭名昭著」的SB-1047規(guī)定,SB 1047將會(huì)通過追究開發(fā)者的責(zé)任,來(lái)防止AI系統(tǒng)造成大規(guī)模人員傷亡,或引發(fā)損失超過5億美元的網(wǎng)絡(luò)安全事件。
消息一出,就引來(lái)學(xué)界和業(yè)界巨大的反對(duì)聲浪。
要知道,全球50家頂尖GenAI企業(yè),有32家便扎根在加州,它們?cè)诙xAI未來(lái)起著關(guān)鍵作用。
加州辦公室新聞稿中介紹,過去一個(gè)月里,Gavin簽署了18個(gè)GenAI法案,卻唯獨(dú)否決了SB-1047。
在過去30天里,州長(zhǎng)簽署了一系列法案,以打擊Deepfake內(nèi)容,以及保護(hù)表演者的數(shù)字肖像權(quán)等等
這項(xiàng)法案初衷是好的,但實(shí)際上存在一些嚴(yán)重的問題。
他表示,我認(rèn)為這不是保護(hù)公眾免受AI帶來(lái)真正威脅的最佳方法。
SB-1047沒有考慮到AI系統(tǒng)是否部署在高風(fēng)險(xiǎn)環(huán)境中、是否涉及關(guān)鍵決策,或敏感數(shù)據(jù)使用。相反,法案對(duì)最基本的功能——部署大模型系統(tǒng),也應(yīng)用了嚴(yán)格的標(biāo)準(zhǔn)。
在SB-1047被否決的過程中,AI教母李飛飛起到的作用不容忽視。
斯坦福教授李飛飛開心地表示,自己能和StanfordHAI一起,為加州負(fù)責(zé)任的AI治理鋪平道路,深感榮幸。
AI泰斗吳恩達(dá)也感謝了李飛飛對(duì)于SB-1047的公開反對(duì),稱她的努力能推動(dòng)更理性的AI政策,從而保護(hù)研究和創(chuàng)新。
就在前幾天,SB-1047法案即將塵埃落定之際,吳恩達(dá)和LeCun還在焦急地奔走呼吁、發(fā)起投票,擔(dān)心一旦通過,開源AI和整個(gè)AI生態(tài)系統(tǒng)都會(huì)產(chǎn)生寒蟬效應(yīng)。
如今,全加州的AI公司們終于松了一口氣。
州長(zhǎng)否決信:不予簽署
「本人謹(jǐn)此退回參議院法案1047,不予簽署?!?/span>
全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf
在信中,州長(zhǎng)承認(rèn),SB-1047對(duì)于AI部署可能帶來(lái)的威脅過于放大了。
而且,法案僅關(guān)注最昂貴的大規(guī)模模型,其實(shí)是給了公眾一種「錯(cuò)誤的安全感」。
他指出,即使是較小的專有模型,可能也會(huì)一樣危險(xiǎn)。
總之,法案對(duì)AI實(shí)施的監(jiān)管,是以「遏制利于公眾利益的創(chuàng)新」為代價(jià)的。
州長(zhǎng)表示,法案對(duì)最基本的功能,也適用最嚴(yán)格的標(biāo)準(zhǔn),這并不是保護(hù)公眾買免受AI技術(shù)威脅的最佳辦法。
而最好的解決辦法是,是一個(gè)不以AI系統(tǒng)和能力的實(shí)證發(fā)展軌跡分析為依據(jù)的方案。
AI大佬深惡痛絕
這樣的結(jié)局,對(duì)于除了Bengio、Hinton的絕大多數(shù)人,都可謂非常圓滿。
提到SB-1047,一眾大佬們是深惡痛絕。
事情的來(lái)龍去脈是這樣的。
去年,加州州長(zhǎng)簽署了一項(xiàng)行政命令,強(qiáng)調(diào)加州面對(duì)GenAI態(tài)度要更加審慎,讓AI更加道德、透明、可信。
而今年2月,加州直接擬定了法案,名為《SB-1047前沿AI大模型安全創(chuàng)新法案》,對(duì)于大模型安全、透明的使用給出了更具體的條例。
法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
然而,其中有多項(xiàng)不合理內(nèi)容,簡(jiǎn)直是指名道姓地給某些公司卡脖子。
成本超1億的模型,得防止造成「重大傷害」
比如有一條規(guī)定,開發(fā)、訓(xùn)練成本超1億美元,且浮點(diǎn)運(yùn)算超過10^26次的大模型,一旦開源后被有人用來(lái)做非法的事,那么模型開發(fā)商也會(huì)受到嚴(yán)重處罰。
要知道,Meta的Llama 3模型,谷歌的Gemma模型等,都符合這個(gè)條件。
這個(gè)規(guī)定顯然極有爭(zhēng)議。
比如,如果有人入侵自動(dòng)駕駛系統(tǒng)并導(dǎo)致事故,開發(fā)該系統(tǒng)的公司也要被追責(zé)嗎?
按照法案的說(shuō)法,開發(fā)者需要評(píng)估其模型的衍生產(chǎn)品、防止他們可能造成的任何傷害,包括客戶微調(diào)模型、以其他方式修改模型(越獄)或與其他軟件組合。
然而一旦開源軟件發(fā)布,人們可以直接將模型下載到個(gè)人設(shè)備上,因此開發(fā)者根本無(wú)從得知其他開發(fā)者或客戶的具體操作。
另外,法案中也有多處定義模糊。
比如AI模型的「關(guān)鍵傷害」,被描述為大量傷亡、超過5億美元的損失或其他「同等嚴(yán)重」的傷害,但開發(fā)者在什么條件下要被追責(zé)?要承擔(dān)何種責(zé)任?
法案對(duì)此都語(yǔ)焉不詳。
并且,法案適用于花費(fèi)超過1億美元訓(xùn)練的AI模型,或花費(fèi)超過1000萬(wàn)美元微調(diào)現(xiàn)有模型的開發(fā)者,也就讓許多小型科技公司落入被打擊范圍。
SB-1047還有一些不合理規(guī)定,比如如果公司開放模型給其他國(guó)家使用,還得提交客戶的所有資料,包括客戶的身份證、信用卡號(hào)、賬號(hào)等。
開發(fā)者還必須創(chuàng)建能夠解決AI模型風(fēng)險(xiǎn)的測(cè)試程序,并且必須每年聘請(qǐng)第三方審計(jì)員來(lái)評(píng)估其AI安全實(shí)踐。
對(duì)于那些基于模型打造的AI產(chǎn)品,則需要制定相應(yīng)的安全協(xié)議來(lái)防止濫用,包括一個(gè)關(guān)閉整個(gè)AI模型的「緊急停止」按鈕。
法案被詬病:對(duì)真正的風(fēng)險(xiǎn)視而不見
更多批評(píng)者認(rèn)為,這個(gè)法案實(shí)在是過于杞人憂天了。
它不僅會(huì)阻礙AI的創(chuàng)新,而且對(duì)當(dāng)今AI的安全性也沒有幫助。
更諷刺的是,法案用所謂的「緊急開關(guān)」預(yù)防世界末日,但對(duì)Deepfake、虛假信息等已出現(xiàn)的安全風(fēng)險(xiǎn)卻視而不見。
雖然后來(lái)的修正案在措辭上更加寬松,減少了加州政府追究AI實(shí)驗(yàn)室責(zé)任的權(quán)力。
但即便如此,SB-1047也會(huì)給OpenAI、Meta、谷歌等大廠帶來(lái)不小的影響。
而對(duì)一些初創(chuàng)企業(yè)來(lái)說(shuō),這種打擊甚至?xí)菤缧缘摹?/span>
如今塵埃落地,大公司和小初創(chuàng)們都可以長(zhǎng)出一口氣了。
圖靈巨頭決裂
SB-1047,甚至讓圖靈三巨頭為此「決裂」。
LeCun、李飛飛、吳恩達(dá)為代表的大佬們,多次公開反對(duì)不滿。
甚至,LeCun還照搬了之前要求暫停AI研究時(shí)的原?!?qǐng)暫停AI立法六個(gè)月!
而圖靈三巨頭中的另外兩位——Yoshua Bengio和Geoffrey Hinton,卻出人意料地強(qiáng)烈支持這項(xiàng)法案通過。
甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。
作為高級(jí)人工智能技術(shù)和政策研究人員,我們寫信表達(dá)對(duì)加州參議院法案1047的強(qiáng)烈支持。
SB 1047概述了對(duì)這種技術(shù)進(jìn)行有效監(jiān)管的基本要求。它沒有實(shí)施許可制度,不要求公司在訓(xùn)練或部署模型之前獲得政府機(jī)構(gòu)的許可,它依賴于公司自行評(píng)估風(fēng)險(xiǎn),甚至在發(fā)生災(zāi)難時(shí)也不對(duì)公司嚴(yán)格追責(zé)。
相對(duì)于我們面臨的風(fēng)險(xiǎn)規(guī)模,這是一項(xiàng)相對(duì)寬松的立法。
取消該法案的基本措施將是一個(gè)歷史性的錯(cuò)誤——這一錯(cuò)誤將在一年內(nèi)變得更加明顯,因?yàn)橄乱淮鼜?qiáng)大的AI系統(tǒng)將被發(fā)布。
但Bengio和Hinton顯然不是主流。
總結(jié)來(lái)說(shuō),各家科技巨頭和一眾大佬對(duì)此的立場(chǎng)如下。