Anthropic CEO:全體失業(yè)好過50%失業(yè)!AI將接管所有代碼,但可以一鍵「躺平」
「再過一年,所有的代碼可能都是AI生成的。」
「它們會隨機(jī)搶走世界上50%的工作。」
「應(yīng)該設(shè)計(jì)一個(gè)按鈕,讓AI可以一鍵『躺平』。」
這是3月11日,Anthropic聯(lián)合創(chuàng)始人、CEO Dario Amodei在The CEO Speaker series論壇上拋出的震撼言論。
AI編寫所有代碼,取代50%工作
說起就業(yè),Dario表示有點(diǎn)擔(dān)心。
一方面,他覺得「比較優(yōu)勢」仍然是一個(gè)強(qiáng)大工具。
以AI進(jìn)展最快的編程領(lǐng)域?yàn)槔珼ario他們發(fā)現(xiàn),距離AI編寫90%代碼的時(shí)代已經(jīng)不遠(yuǎn)了,可能只需要三到六個(gè)月。再過一年,AI甚至可能編寫幾乎所有的代碼。
但程序員還是有活兒干,比如得告訴AI:這個(gè)程序要干嘛?整個(gè)應(yīng)用的功能是什么?設(shè)計(jì)怎么搞?怎么跟現(xiàn)有代碼相互協(xié)作?還有用常識判斷設(shè)計(jì)安不安全。
只要這些細(xì)活兒AI還搞不定,他覺得人類的效率反而會更高。
但另一方面,他又覺得AI遲早會把這些「孤島」也拿下,最終啥都能干。
到那時(shí)候,每個(gè)行業(yè)可能都躲不掉。
我覺得AI要是把所有人的工作都取代了,反而比隨機(jī)搶一半人的飯碗好。
最糟的情況是,AI突然干掉50%的工作,然后社會就炸了——等于隨便挑一半人說:你們沒用了,社會不要你們了。
Dario表示「這太毀三觀了。」
他認(rèn)為我們得面對這個(gè)現(xiàn)實(shí),重新想想「有用」和「沒用」到底啥意思。
現(xiàn)在的思路已經(jīng)跟不上了。Dario自己也不知道最后怎么解決,但肯定不能說「我們都毫無用處」這種喪氣話,那沒用。
得找出路。
Dario拿他自己舉例,平時(shí)游個(gè)泳、打打游戲,都挺有意思的。
他又以國際象棋為例,30年前「深藍(lán)」贏了卡斯帕羅夫,大家還以為這游戲完了呢,結(jié)果呢?
像Magnus Carlsen這樣的棋王現(xiàn)在是大明星,還當(dāng)過時(shí)裝模特,簡直就是英雄。
所以Dario覺得,就算AI再牛,人類也能跟它一塊兒干出點(diǎn)厲害的事兒。
我并不像你想象的那么悲觀,但如果我們處理不當(dāng),容錯空間可能非常小。
給AI一個(gè)「躺平」按鈕
Dario稱未來的高級AI模型可能會被賦予一個(gè)「按鈕」,讓它們可以選擇退出它們覺得不舒服的任務(wù)。
他也承認(rèn)這個(gè)想法「聽起來很瘋狂」,但還是拋出了這個(gè)話題。
我們至少應(yīng)該考慮一個(gè)問題:如果我們打造的這些系統(tǒng)能像人類一樣做各種事情,而且似乎擁有很多相同的認(rèn)知能力。
如果它叫起來像鴨子,走起來也像鴨子,那它可能就是只鴨子。
Dario聲稱他們正考慮開始部署一些東西,比如將模型部署到實(shí)際環(huán)境中時(shí),給模型一個(gè)寫著「我不干這活了」的按鈕,讓它可以按下。
你可以把它想象成一個(gè)非常基本的偏好框架,如果假設(shè)模型真的有體驗(yàn),而且它非常討厭這份工作,它就按下「我不干這活了」按鈕。
如果發(fā)現(xiàn)模型經(jīng)常因?yàn)槟承┨貏e不愉快的事情按這個(gè)按鈕,也許你應(yīng)該——不一定完全相信——但至少應(yīng)該關(guān)注一下。
Dario提議讓AI有拒絕任務(wù)的選項(xiàng),這立刻在網(wǎng)上引發(fā)了質(zhì)疑。
有人質(zhì)疑給AI這樣的選擇會助長不必要的擬人化,把人類的情感和動機(jī)歸加在本質(zhì)上缺乏主觀體驗(yàn)的實(shí)體上。
對此,Dario的看法是,AI模型是通過大量人類生成的數(shù)據(jù)訓(xùn)練出來的,它們模仿人類行為。
模型按下按鈕并不一定是因?yàn)樗嬗型纯嗟闹饔^體驗(yàn)。
更可能的是,它只是在反映從海量人類文本數(shù)據(jù)(包括書籍、網(wǎng)站和網(wǎng)絡(luò)評論)中提取的訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)里無疑包含了懶惰、痛苦或受折磨的描述,而模型可能只是在模仿這些內(nèi)容。
2023年,就有人抱怨ChatGPT的拒絕行為可能是季節(jié)性的,可能與訓(xùn)練數(shù)據(jù)中描繪的人們在冬季度假、某些時(shí)候工作不那么努力有關(guān)。
Anthropic去年也經(jīng)歷了類似的「冬歇假說」,當(dāng)時(shí)有人聲稱Claude在8月變得懶惰,可能是因?yàn)橛?xùn)練數(shù)據(jù)中反映了人們尋求暑假休息的情況,盡管這從未被證實(shí)。
盡管這個(gè)想法今天聽起來很離譜、可笑,但如果隨著AI模型在未來變得更先進(jìn),就不能排除它們可能擁有某種主觀體驗(yàn)的可能性。
即使如此,它們會「痛苦」或感到「疼痛」嗎?
Dario顯然也在認(rèn)真對待這個(gè)問題。
不過目前來看,AI模型還是工具,如果你給了它們出錯的機(jī)會,它們可能就會出錯。
DeepSeek證明了Scaling Law
有人覺得DeepSeek的出現(xiàn)是不是推翻了「擴(kuò)展定律」(Scaling Law),Dario覺得恰恰相反,它就是個(gè)證明。
現(xiàn)在有兩個(gè)趨勢:一是做出同樣聰明的AI模型,成本每年降4倍,因?yàn)樗惴ㄔ絹碓脚#苡酶俚腻X干同樣的事兒。
一年后,你要么花四分之一的錢弄個(gè)跟去年一樣的模型,要么花一樣的錢弄個(gè)比去年強(qiáng)4倍的。
從經(jīng)濟(jì)角度來看,這意味著,無論當(dāng)前某個(gè)特定智能水平的模型具有什么經(jīng)濟(jì)價(jià)值,由于你可以用四分之一的成本來生成它,人們就會傾向于生成更多這樣的模型。
這實(shí)際上也刺激了投入更多資金來生成更智能、具有更高經(jīng)濟(jì)價(jià)值的模型。
盡管生成特定智能水平模型的成本在下降,但愿意投入的資金卻在增加,實(shí)際上是快速增加,投入以每年大約10倍的速度在增長。
社會對聰明AI的需求越來越大,經(jīng)濟(jì)也需要更厲害的模型。
DeepSeek就是這種趨勢里的一個(gè)典型代表。
Dario認(rèn)為DeepSeek并沒有只花幾百萬就搞定那么夸張。
他們也花了幾百萬建模型,研發(fā)上也投了幾十億,跟我們差不多。看看他們的芯片數(shù)量,也跟美國公司差不多。
Dario認(rèn)為以前能搞頂尖模型的就四五家公司,全在美國。
現(xiàn)在出了個(gè)DeepSeek,跟Anthropic、OpenAI、Google一個(gè)級別,工程能力也差不多,這可是頭一回。
Dario表示,「我有點(diǎn)擔(dān)心。」
關(guān)于出口管制
「出口管制真的很重要。」Dario一直的觀點(diǎn)。
雖然成本在降,但不管怎么降,芯片越多、錢越多,模型就更好,規(guī)律沒變。
以前可能10億美元能搞出個(gè)不錯的模型,現(xiàn)在10億美元能搞個(gè)超牛的,或者1000萬美元弄個(gè)不錯的。
這意味著阻止競爭對手獲得價(jià)值10億美元的模型變得更加重要,因?yàn)楝F(xiàn)在可以用10億美元獲得更智能的模型。
他認(rèn)為DeepSeek使用的計(jì)算資源相對較少,其中包括一些繞過出口管制的芯片。
未來OpenAI、Google可能會造幾千萬甚至上億芯片,花幾百億甚至更多。
如果我們實(shí)施出口管制,我們實(shí)際上可能能夠阻止這種情況在中國發(fā)生。如果我們不這樣做,我認(rèn)為他們可能會與我們并駕齊驅(qū)。
Dario說他一直是「擴(kuò)散規(guī)則」(Diffusion Rule)的大力支持者。甚至在 DeepSeek出現(xiàn)之前,他就已經(jīng)支持出口管制好幾年了。
不僅在AI領(lǐng)域,在所有領(lǐng)域都是如此,我們要阻止其獲得數(shù)百萬個(gè)非常強(qiáng)大的芯片。
數(shù)據(jù)耗盡沒那么慌了
最近半年有些技術(shù)突破(最早是OpenAI提的)。
這些技術(shù)讓AI對海量數(shù)據(jù)的依賴變少了,叫「推理模型」,簡單說就是AI會「思考」了。
它能自己推理復(fù)雜問題,然后用這個(gè)過程訓(xùn)練自己。
就像人腦子里的計(jì)劃:我先想個(gè)辦法,回頭一看,「哎,不太對啊,我咋想的?」然后就學(xué)到東西了。
人類還得實(shí)踐,不過AI以前不會反思,但現(xiàn)在開始會了。
目前推理模型多用在數(shù)學(xué)、編程上,把這能力擴(kuò)展到其他領(lǐng)域不算太難。
即使我們真的在2030年耗盡了數(shù)據(jù),如果AI技術(shù)的指數(shù)級增長再持續(xù)兩到三年,也足以讓AI模型達(dá)到天才級別。這可能就足以引發(fā)我們所討論的許多變革。
Dario覺得到時(shí)候可以問AI:「人類科學(xué)家搞不定這難題,你們幫幫忙?」
當(dāng)然,也可能效果沒那么好,數(shù)據(jù)耗盡還是個(gè)潛在攔路虎。
Dario說他一兩年前覺得這是大問題,排前三的那種。
但現(xiàn)在,新技術(shù)讓他沒那么慌了,雖然還沒完全放心。
為啥離開OpenAI
Dario說他們是2020年底從OpenAI出來的。
當(dāng)時(shí)有些事兒讓他和幾個(gè)同事(后來一起創(chuàng)建了Anthropic)先看明白了「擴(kuò)展定律」。
簡單說,就是多砸算力、多喂數(shù)據(jù),用簡單算法,AI在各種任務(wù)上都會變強(qiáng)。
他們當(dāng)時(shí)在測量這些趨勢時(shí)認(rèn)為,訓(xùn)練一個(gè)模型的成本僅為1000或10000美元,這大概是一個(gè)學(xué)術(shù)研究項(xiàng)目的預(yù)算水平。
他們預(yù)測,即使模型的訓(xùn)練成本達(dá)到1億、10億甚至100億美元(我們現(xiàn)在正朝著這個(gè)方向發(fā)展),這些趨勢仍將持續(xù)。
如果模型的質(zhì)量和智能水平繼續(xù)提高,將對經(jīng)濟(jì)產(chǎn)生巨大影響。
他們覺得OpenAI領(lǐng)導(dǎo)層也相信這一點(diǎn),盡管許多內(nèi)部和外部人士并不認(rèn)同。
他們還意識到,這技術(shù)這么重要,就必須認(rèn)真對待它的構(gòu)建,確保正確無誤。
一方面,這些模型非常難以預(yù)測,它們本質(zhì)上是統(tǒng)計(jì)系統(tǒng)。
他們更像是在「培育」它們,而不是「構(gòu)建」它們,就像孩子大腦發(fā)育一樣。
Dario說他們深感必須以絕對正確的方式構(gòu)建這項(xiàng)技術(shù)。
他們認(rèn)為OpenAI的領(lǐng)導(dǎo)層并沒有認(rèn)真對待這些問題,因此決定離開并獨(dú)立開展這項(xiàng)工作。