編輯 | 伊風(fēng)、云昭
出品 | 51CTO技術(shù)棧(微信號(hào):blog51cto)
不知道大家有沒(méi)有發(fā)現(xiàn):今年的奧特曼,突然安靜了很多。
不像 2024 年那樣頻繁出現(xiàn)在各種技術(shù)播客、大會(huì)、訪談里,甚至好多次OpenAI新發(fā)布也不見(jiàn)他的身影——這位 AI 圈最活躍的“CEO 網(wǎng)紅”,仿佛一下子就開啟帶娃模式、退居幕后了。
可偏偏,在這個(gè) AI產(chǎn)品、Agent、大模型都在飛速迭代的時(shí)間點(diǎn),我們又特別想知道他最近在想什么。
好消息是:他終于公開露面了!
在剛結(jié)束的 2025 Snowflake 峰會(huì)上,Sam Altman 作為重磅嘉賓,和 Snowflake CEO Sridhar Ramaswamy 以及 Conviction 創(chuàng)始人 Sarah Guo 進(jìn)行了一場(chǎng)信息密度極高的爐邊對(duì)談。
短短二十分鐘的訪談,內(nèi)容相當(dāng)凝練、有料,干貨滿滿!
比如,他給 AI 創(chuàng)業(yè)者的忠告發(fā)生了變化,今年的主題是:“馬上行動(dòng)。”
對(duì)于企業(yè)采用大模型,這是奧特曼首次果斷、鮮明的表示支持。
對(duì)于所有還在等待更新的 GPT-5 模型、采取觀望態(tài)度的企業(yè)老板、團(tuán)隊(duì)主管們,奧特曼表示:與其等新模型,不如現(xiàn)在就開始。
“你會(huì)發(fā)現(xiàn),那些率先下注、快速學(xué)習(xí)的企業(yè),已經(jīng)明顯領(lǐng)先于還在觀望的同行。”奧特曼說(shuō)道。
Sridhar 點(diǎn)頭稱是:“不會(huì)有一個(gè)完美時(shí)刻等你一切就緒。”
此外,奧特曼給出的第二個(gè)判斷是:是關(guān)于智能體(Agent)的。他認(rèn)為:“未來(lái)工作的基本單位,是AI Agent。”
Altman 形容,現(xiàn)在更像是你請(qǐng)了個(gè)AI實(shí)習(xí)生:你丟給它一個(gè)任務(wù),比如“幫我找出我們官網(wǎng)漏掉的SEO優(yōu)化點(diǎn)”,它自己去讀你的網(wǎng)站代碼、查搜索趨勢(shì)、掃你的GitHub和Slack聊天記錄,然后給你一個(gè)優(yōu)化方案草案,你只需要點(diǎn)“同意”或“再改改”。
而 Altman 表示,這個(gè)“實(shí)習(xí)生”,很快就能變成能獨(dú)立負(fù)責(zé)項(xiàng)目的工程師。 也就是說(shuō),未來(lái)的工作,可能不是“你完成10個(gè)任務(wù)”,而是“你指揮10個(gè)智能體”,再去微調(diào)它們的成果。
最后,他還透露了自己心中的“完美模型”:
“體積很小,但擁有超人級(jí)別的推理能力,運(yùn)行速度極快,有一萬(wàn)億 tokens 的上下文窗口,并能訪問(wèn)你能想象的所有工具。”
??下圖為現(xiàn)場(chǎng)截圖:
左起:Sam Altman、Sarah Guo、Sridhar Ramaswamy
以下是這場(chǎng)訪談的整理實(shí)錄,Enjoy:
1.模型可用性發(fā)生“質(zhì)的飛躍”,AI創(chuàng)業(yè)者必須馬上行動(dòng)
主持人Sarah:我們開場(chǎng)就進(jìn)入正題:Sam,你會(huì)給正在應(yīng)對(duì) AI 變革的企業(yè)領(lǐng)導(dǎo)者們什么建議?
Sam Altman:我的建議是:馬上行動(dòng)。現(xiàn)在還有很多猶豫不決,模型變化太快,大家都想著“等等下一個(gè)版本”或者“看看這兩個(gè)模型誰(shuí)更好”,或者“這波趨勢(shì)最終會(huì)往哪走”。
但在技術(shù)領(lǐng)域,有個(gè)通用原則是:當(dāng)技術(shù)快速迭代時(shí),贏家往往是那些能夠迅速試錯(cuò)、降低失敗成本、提升學(xué)習(xí)速度的公司。
我們目前觀察到的情況也印證了這一點(diǎn):那些盡早下注、快速試驗(yàn)的企業(yè),表現(xiàn)明顯優(yōu)于觀望和等待的同行。
Sridhar:我完全同意 Sam 的觀點(diǎn)。我還想補(bǔ)充的是:“好奇心”真的非常關(guān)鍵。我們對(duì)許多舊有流程的依賴其實(shí)已經(jīng)不再成立,但很多人沒(méi)有意識(shí)到。如今很多平臺(tái),比如 Snowflake,讓你以非常低的成本進(jìn)行實(shí)驗(yàn),可以做出很多小測(cè)試,從中提煉價(jià)值,再持續(xù)優(yōu)化。
我要再次強(qiáng)調(diào) Sam 的話:能迭代得越快,越能從 AI 中獲益。因?yàn)樗麄冎朗裁从行А⑹裁礋o(wú)效,他們能應(yīng)對(duì)未來(lái)快速變化的局勢(shì)。
接下來(lái)的幾年,不會(huì)有一個(gè)“完美時(shí)機(jī)”讓一切塵埃落定。你只能在混沌中快速前進(jìn)。
主持人Sarah: 那你的建議和去年相比,有哪些不同呢?
Sridhar:其實(shí),我去年也會(huì)說(shuō)一樣的話。尤其是“保持好奇”和“允許試錯(cuò)”——
這兩點(diǎn)一直都很重要。關(guān)鍵是你要在那些“失敗成本很低”的場(chǎng)景中去試錯(cuò),而這樣的場(chǎng)景其實(shí)非常多。
不過(guò),技術(shù)確實(shí)成熟得更快了。比如現(xiàn)在的 ChatGPT,已經(jīng)能很好地結(jié)合網(wǎng)絡(luò)搜索來(lái)提供新鮮的信息,不再是那個(gè)“脫離實(shí)時(shí)數(shù)據(jù)”的工具。
不論是結(jié)構(gòu)化數(shù)據(jù)還是非結(jié)構(gòu)化數(shù)據(jù),現(xiàn)在的聊天機(jī)器人技術(shù)已經(jīng)可以投入主流使用了。當(dāng)然,我們依然可以探索更遠(yuǎn)的“智能體”能力邊界,但即便在遠(yuǎn)離前沿的應(yīng)用中,這項(xiàng)技術(shù)已經(jīng)非常可用。
Sam Altman:有意思的是,我去年的觀點(diǎn)可能跟現(xiàn)在還真不太一樣。如果是對(duì)創(chuàng)業(yè)公司,我去年也會(huì)鼓勵(lì)他們?cè)琰c(diǎn)上手,但對(duì)大型企業(yè)我可能會(huì)說(shuō):“可以小范圍試驗(yàn),但大多數(shù)情況下還不適合投入生產(chǎn)環(huán)境。”
但這個(gè)觀點(diǎn)現(xiàn)在變了——我們服務(wù)的大企業(yè)在這方面的增長(zhǎng)是飛速的。他們現(xiàn)在真的在大規(guī)模使用我們的技術(shù)。我經(jīng)常問(wèn)他們:“是什么變了?” 他們會(huì)說(shuō):“一部分是我們摸索清楚了用法,但更大的變化是:現(xiàn)在這東西真的好用多了!”
它能做很多過(guò)去想都不敢想的事情。某個(gè)時(shí)間點(diǎn),在過(guò)去這一年里,模型的“可用性”發(fā)生了質(zhì)的飛躍。
更有意思的問(wèn)題是:明年這個(gè)時(shí)候我們又會(huì)說(shuō)出什么新觀點(diǎn)?
我預(yù)測(cè)到那時(shí),我們會(huì)進(jìn)入一個(gè)階段:你不僅可以用 AI 自動(dòng)化業(yè)務(wù)流程或開發(fā)新產(chǎn)品,還能真正說(shuō)出,“我有一個(gè)極其重要的業(yè)務(wù)難題,我愿意砸大量算力下去解決它。”
而模型將能完成過(guò)去需要團(tuán)隊(duì)合作都無(wú)法完成的任務(wù)。
那些已經(jīng)開始積累 AI 實(shí)戰(zhàn)經(jīng)驗(yàn)的公司,將在未來(lái)的競(jìng)爭(zhēng)中占據(jù)優(yōu)勢(shì)。屆時(shí)他們就可以說(shuō),“來(lái)吧 AI 系統(tǒng),把我這個(gè)關(guān)鍵項(xiàng)目完全重構(gòu)一遍。”
這是下一次質(zhì)變的前奏:大量算力 + AI 推理能力 + 高難度問(wèn)題。誰(shuí)準(zhǔn)備好了,誰(shuí)就能邁出下一大步。
2.Codex讓我有了AGI的感覺(jué)!智能體明年將解決棘手的商業(yè)難題
主持人Sarah:既然你提到了推理能力、算力投入,以及智能體加入工作流程,那么關(guān)于“記憶與檢索”的問(wèn)題就不能回避了——你覺(jué)得它們?cè)谶@一輪 AI 變革中會(huì)起到什么樣的作用?
Sridhar:檢索技術(shù)一直是讓生成式 AI“貼地飛行”的關(guān)鍵,尤其在需要真實(shí)世界參考時(shí)。例如 GPT-3 時(shí)代我們就搭建了支持網(wǎng)頁(yè)搜索的大規(guī)模系統(tǒng),可以在你問(wèn)時(shí)事問(wèn)題時(shí)拉取外部信息作為參考。
同樣地,記憶系統(tǒng)也非常重要。模型能“記住”你以前是怎么解決問(wèn)題的、你和系統(tǒng)的互動(dòng)記錄,這些都會(huì)極大提升它后續(xù)的使用體驗(yàn)和效率。
我認(rèn)為隨著模型被用于越來(lái)越復(fù)雜的任務(wù),記憶和檢索的角色會(huì)變得更加關(guān)鍵。不論是提升交互質(zhì)量,還是賦能更強(qiáng)的智能體行為,上下文越豐富,AI 的表現(xiàn)就越好。
主持人Sarah:Sam,你能不能給在座的每一位領(lǐng)導(dǎo)者一個(gè)參考框架,來(lái)思考:智能體(Agents)現(xiàn)在能做什么?明年又可能做到什么?
Sam Altman:我們最近剛發(fā)布的編程智能體 Codex,是我個(gè)人第一次有“AGI時(shí)刻”的感覺(jué)。你觀察它的工作方式——你給它一堆任務(wù),它就在后臺(tái)默默執(zhí)行。它真的非常聰明,可以完成那種“長(zhǎng)周期、跨階段”的任務(wù)。
你只需要坐在那里,說(shuō)“這個(gè)通過(guò)”、“那個(gè)不行”、“再試一次”。它甚至能連接你的 GitHub,未來(lái)它還可能可以觀看你的會(huì)議、查看你的 Slack 聊天、閱讀你所有的內(nèi)部文檔。它做的事情已經(jīng)非常令人驚艷了。
也許目前它還只是一個(gè)每天能工作幾小時(shí)的“實(shí)習(xí)生”,但不久之后,它會(huì)像一位能連續(xù)工作好幾天的“資深工程師”。而這類變化,不只會(huì)發(fā)生在編程領(lǐng)域,我們會(huì)看到智能體在很多工作類型中發(fā)揮類似作用。
現(xiàn)在已經(jīng)有很多公司在用智能體來(lái)自動(dòng)化客戶支持、推動(dòng)銷售流程、甚至更多的業(yè)務(wù)方向。有些人已經(jīng)在描述:他們的“工作”就是把任務(wù)分配給一群智能體,評(píng)估產(chǎn)出質(zhì)量,分析它們?nèi)绾螀f(xié)同工作,并給出反饋。
聽(tīng)起來(lái)就像在帶一組還比較年輕的團(tuán)隊(duì)成員。而且,這不是想象——它正在真實(shí)發(fā)生,只是目前還沒(méi)有完全普及。
明年,在一些有限的場(chǎng)景中,哪怕是很小的程度,我們將開始看到智能體真的能幫助人類發(fā)現(xiàn)新知識(shí),或者解決那些非常復(fù)雜的商業(yè)問(wèn)題。
目前的智能體主要還能處理的是:重復(fù)性的腦力勞動(dòng),短時(shí)間周期內(nèi)、低層級(jí)的認(rèn)知任務(wù)。但隨著它們處理的任務(wù)變得更長(zhǎng)線、更復(fù)雜——某一刻,我們就會(huì)迎來(lái)“AI 科學(xué)家”出現(xiàn)的時(shí)刻。一個(gè)能自主發(fā)現(xiàn)科學(xué)的新型智能體。
那將是世界性的重大時(shí)刻。
主持人Sarah:你剛才說(shuō) Codex 和編程智能體的體驗(yàn)是你第一次有“AGI實(shí)感”的時(shí)刻。那我就必須問(wèn)了:你現(xiàn)在是如何定義 AGI(通用人工智能)的?我們離它還有多遠(yuǎn)?它對(duì)我們的意義是什么?
Sam Altman:我想,如果你能回到過(guò)去,哪怕只回到五年前……
主持人Sarah:那幾乎是 AI 的“黑暗時(shí)代”。
Sam Altman:其實(shí),那段時(shí)期也非常有趣。如果我們回到整整五年前,我可能記得不太清,但應(yīng)該就在我們推出 GPT 的前夕。那時(shí)候,世界還沒(méi)見(jiàn)過(guò)真正強(qiáng)大的語(yǔ)言模型。
如果你能回到那個(gè)時(shí)間點(diǎn),然后給人們展示今天的 ChatGPT,甚至不提 Codex 或其他產(chǎn)品,就光是 ChatGPT,我想大多數(shù)人會(huì)說(shuō):“這不就是 AGI 嗎?”
我們?nèi)祟惙浅I瞄L(zhǎng)“調(diào)整自己的預(yù)期”,這其實(shí)是人性中非常美好的一點(diǎn)。
所以,我認(rèn)為“AGI 究竟是什么”這個(gè)問(wèn)題,本身并不重要。每個(gè)人對(duì)它的定義都不一樣,同一個(gè)人也會(huì)在不同時(shí)間給出不同定義。
真正重要的是:我們過(guò)去五年看到的 AI 年年飛躍的進(jìn)展速度——很可能還會(huì)持續(xù)五年,甚至更久。
你說(shuō) AGI 的“勝利點(diǎn)”會(huì)在 2024、2026 還是 2028,其實(shí)沒(méi)那么關(guān)鍵;你說(shuō)超級(jí)智能的里程碑是在 2028、2030 還是 2032,也都沒(méi)關(guān)系。
重點(diǎn)是:這是一條又長(zhǎng)又美麗、令人震驚地平滑的指數(shù)曲線。
對(duì)我來(lái)說(shuō),一個(gè)能自主發(fā)現(xiàn)新科學(xué)的系統(tǒng),或者一個(gè)讓全世界科學(xué)發(fā)現(xiàn)速度翻幾倍的工具系統(tǒng),已經(jīng)可以滿足我對(duì) AGI 的全部標(biāo)準(zhǔn)。
當(dāng)然也有人堅(jiān)持,AGI 必須能自我改進(jìn);也有人覺(jué)得,像 ChatGPT 搭配記憶功能的版本,已經(jīng)很像 AGI 了。
主持人Sarah:確實(shí),從一些早期測(cè)試,比如圖靈測(cè)試來(lái)看,ChatGPT 已經(jīng)達(dá)標(biāo)了。
那我們回到Sridhar,你還記得你第一次用 OpenAI 模型做搜索是什么時(shí)候嗎?
Sridhar:你當(dāng)時(shí)其實(shí)用的是 GPT-3 的 Playground,在做一些小實(shí)驗(yàn)。我們后來(lái)也接入了 API,但那時(shí)還不允許我們用完整的 GPT-3 模型。
我們就自己倒推:怎么用 70 億或 100 億參數(shù)的模型,來(lái)做到相似的效果。
對(duì)我來(lái)說(shuō),第一次“眼前一亮”的,是看到 GPT 真正解決了一個(gè)難題:抽象式摘要(abstractive summarization)。
也就是:把一篇 100 字的博客內(nèi)容,壓縮成三句話去描述它。這個(gè)任務(wù)非常難,人類都覺(jué)得棘手。但這些模型突然間就能做到了。
那一刻我意識(shí)到,如果它能在整個(gè)網(wǎng)頁(yè)語(yǔ)料庫(kù)上做這種事情——再配合能判斷哪些頁(yè)面值得看的搜索引擎能力——那就是搜索引擎的新時(shí)代了。
我記得當(dāng)時(shí)心里就想:哇,這玩意,真有力量。而且后來(lái)它的表現(xiàn)只會(huì)越來(lái)越好。
主持人Sarah:在你作為創(chuàng)業(yè)者或 CEO 的過(guò)程中,有沒(méi)有哪個(gè)節(jié)點(diǎn)讓你突然意識(shí)到,“哇,現(xiàn)在一切都是搜索,或者說(shuō)是‘搜索+’”?我自己雇過(guò) Neva 的前員工,當(dāng)時(shí)的理念也是:這個(gè)時(shí)代的一切,都是關(guān)于搜索的。你是什么時(shí)候有這種想法的?
Sridhar:這個(gè)問(wèn)題其實(shí)是關(guān)于“設(shè)定上下文”的——當(dāng)你開始使用這些模型,或者思考某個(gè)問(wèn)題的時(shí)候,你會(huì)意識(shí)到:我們需要一種機(jī)制,來(lái)縮小視角的范圍,讓模型聚焦在你想處理的內(nèi)容上。
這是一種非常強(qiáng)大、也具通用性的技巧。你看現(xiàn)在很多微調(diào)和后訓(xùn)練技術(shù),其實(shí)背后邏輯是類似的:拿一個(gè)非常強(qiáng)大的模型,為它提供上下文,告訴它哪些信息是相關(guān)的、哪些是無(wú)效的,然后用這個(gè)方法來(lái)提升模型的輸出質(zhì)量。
我認(rèn)為這更像是一種通用的思維方式,而不僅僅是某個(gè)工具。你想實(shí)現(xiàn)某種結(jié)果,關(guān)鍵是要把“上下文”設(shè)定好。
上下文是無(wú)限的,人類靠“注意力”機(jī)制來(lái)解決這個(gè)問(wèn)題——我們聚焦某個(gè)點(diǎn)。我把搜索看作是為模型設(shè)定注意力焦點(diǎn)的一種工具。
主持人Sarah:你同意 Sam 的看法嗎?也就是我們正處在一條“指數(shù)級(jí)增長(zhǎng)的能力曲線”上?還是說(shuō)你有一個(gè)自己認(rèn)同的 AGI 定義——一個(gè)對(duì)你或客戶來(lái)說(shuō)更重要的標(biāo)準(zhǔn)?
Sridhar:我覺(jué)得這會(huì)變成一個(gè)哲學(xué)性很強(qiáng)的辯論。比如說(shuō),有個(gè)比喻是:“潛水艇到底算不算在游泳?”某種意義上這聽(tīng)起來(lái)有點(diǎn)荒謬,但從另一個(gè)角度看,它當(dāng)然是在“游”。
所以我也把這些模型看作擁有極其驚人的能力。任何一個(gè)關(guān)注未來(lái)趨勢(shì)的人看到這些模型的表現(xiàn),可能都會(huì)說(shuō):“這已經(jīng)是 AGI 了。”
但正如 Sam 提到的,我們現(xiàn)在說(shuō)的這些話,也許到 2025 年時(shí)又會(huì)覺(jué)得不值一提。
真正讓我驚嘆的,是進(jìn)展的速度。我真誠(chéng)相信,這個(gè)進(jìn)程會(huì)帶來(lái)許多偉大的成果。
這有點(diǎn)像,我們?nèi)绾慰创慌_(tái)“還不錯(cuò)的計(jì)算機(jī)”可以戰(zhàn)勝世界上所有的國(guó)際象棋高手——這真的重要嗎?
并不重要。我們依然有很多人仍然在下棋,而且他們?nèi)匀环浅I瞄L(zhǎng)。
所以我覺(jué)得關(guān)于“定義”的爭(zhēng)論其實(shí)沒(méi)那么關(guān)鍵。現(xiàn)在的圍棋也比以前更流行了。我們會(huì)從這條路徑中學(xué)到很多東西,但“那個(gè)具體的時(shí)刻”并不是重點(diǎn)。
3.完美模型:輕量、強(qiáng)推理、可調(diào)用所有工具
主持人Sarah:我個(gè)人有個(gè)直覺(jué):當(dāng)人們?cè)趩?wèn) AGI 的時(shí)候,其實(shí)很多人真正想問(wèn)的是“意識(shí)”,只是他們沒(méi)把問(wèn)題說(shuō)清楚,或者說(shuō)只有一部分人會(huì)明確表達(dá)那樣的問(wèn)題。你之前說(shuō)這更偏哲學(xué),所以我想問(wèn)問(wèn)你:你們內(nèi)部已經(jīng)在訓(xùn)練下一代模型,看到別人還看不到的能力,從產(chǎn)品角度、公司運(yùn)營(yíng)角度,有哪些新的“涌現(xiàn)能力”是正在改變你們的思維方式的?
Sam Altman:是的,未來(lái)一年或兩年發(fā)布的模型將會(huì)令人驚嘆。我們面前還有很大的進(jìn)步空間。
就像 GPT-3 到 GPT-4 帶來(lái)的跨越一樣,許多企業(yè)將可以做到以前根本不可能做到的事。比如我們剛才聊到的,如果你是一家芯片公司,你可以說(shuō):“幫我設(shè)計(jì)一款比我們現(xiàn)有方案更好的芯片”;或者你是一家生物科技公司,你可以說(shuō):“這個(gè)病我搞不定,你來(lái)解決。”
這些都不再遙不可及。
這些模型有能力理解你能提供給它的全部上下文,連接所有工具和系統(tǒng),然后深入思考,進(jìn)行極其出色的推理,并給出有說(shuō)服力的解決方案。
它們的穩(wěn)健性也在提升,我們可以越來(lái)越放心地讓它自主執(zhí)行復(fù)雜任務(wù)。
坦白說(shuō),我以前沒(méi)想過(guò)它們會(huì)來(lái)得這么快。但現(xiàn)在真的感覺(jué)……非常接近了。
主持人Sarah:那你能不能給大家一點(diǎn)直覺(jué):未來(lái)哪些“知識(shí)”是 AI 能掌握的?哪些是還在邊界上的?我想象中的“核心智力”是,我也算挺聰明的,但我腦子里也沒(méi)有完美的物理模擬器——所以我們?cè)趺磁袛?AI 還能進(jìn)化多遠(yuǎn)?
Sam Altman:我自己比較喜歡的一個(gè)思考框架是這樣的:這不是我們馬上就要發(fā)布的東西,但從理念上說(shuō),我們追求的是這樣一個(gè)模型——體積很小,但擁有超人級(jí)別的推理能力,運(yùn)行速度極快,有一萬(wàn)億 tokens 的上下文窗口,并能訪問(wèn)你能想象的所有工具。
所以它到底“知不知道某個(gè)具體知識(shí)點(diǎn)”,其實(shí)變得沒(méi)那么重要。
用這些模型作為數(shù)據(jù)庫(kù)是荒謬的——它們是又慢又貴還不準(zhǔn)確的數(shù)據(jù)庫(kù)。但驚人的是:它們可以進(jìn)行推理。
你可以把一個(gè)企業(yè)或個(gè)人生活的所有上下文信息都“扔進(jìn)去”,再把需要的物理模擬器或其他工具整合進(jìn)來(lái)——你能做的事就變得非常了不起。
而我們現(xiàn)在,就是在向這個(gè)方向邁進(jìn)。
主持人Sarah:太震撼了。我想問(wèn)一個(gè)更具假設(shè)性的問(wèn)題:
如果你手上有現(xiàn)在 1000 倍的算力——原本我想問(wèn)“無(wú)限算力”,但那太夸張了——如果是 1000 倍,你會(huì)用它做什么?
Sam Altman:我覺(jué)得,最“元”的回答(雖然我之后會(huì)給一個(gè)更實(shí)用的),可能是這樣的:我會(huì)請(qǐng)你們投入所有力量去推進(jìn) AI 研究,開發(fā)出更優(yōu)秀的模型,然后再問(wèn)那個(gè)更強(qiáng)的模型,我們?cè)撛趺蠢眠@些算力。
主持人Sarah:直接讓它來(lái)解決“你最難的問(wèn)題”。
Sam Altman:我認(rèn)為這其實(shí)是最理性的做法。
主持人Sarah:這說(shuō)明你是真的相信它能給出答案。
Sam Altman:我覺(jué)得更實(shí)用的回答是這樣的: 我們現(xiàn)在在 ChatGPT 內(nèi)部、以及企業(yè)用戶中,已經(jīng)看到很多案例表明——測(cè)試時(shí)使用更多算力,確實(shí)能帶來(lái)真實(shí)的收益。
比如你讓模型“多想一會(huì)兒”、或者對(duì)一個(gè)復(fù)雜問(wèn)題多嘗試幾次,就有可能得到明顯更好的答案。
所以,如果一家企業(yè)說(shuō),“我要在每一個(gè)難題上都加大 1000 倍的算力”,他們真的可能會(huì)得到一些令人驚艷的結(jié)果。
當(dāng)然,你不會(huì)真的這么做,也沒(méi)有 1000 倍的算力。但現(xiàn)在這種能力已經(jīng)變得可行,說(shuō)明我們可以嘗試的一件事就是:
用“冪律法則”的方式去看待算力價(jià)值——對(duì)于最難、最有價(jià)值的問(wèn)題,愿意投入更多算力去嘗試,可能就能獲得突破。
主持人Sarah:那Sridhar,你會(huì)不會(huì)也對(duì) Snowflake 做一樣的事?你是數(shù)據(jù)基礎(chǔ)設(shè)施、搜索優(yōu)化、企業(yè)系統(tǒng)方面的專家,現(xiàn)在掌管 Snowflake。如果給你一個(gè)超級(jí)難題,你也會(huì)直接丟給算力處理嗎?
Sridhar:我覺(jué)得這確實(shí)是個(gè)很酷的應(yīng)用場(chǎng)景。不過(guò)讓我換一個(gè)角度回答,跳出我們每天生活的科技圈來(lái)說(shuō):
你知道有個(gè)叫 Arnold 項(xiàng)目 的研究嗎?它有點(diǎn)像我們 20 多年前進(jìn)行的 DNA 測(cè)序項(xiàng)目,不過(guò)這次的研究對(duì)象是 RNA 表達(dá)機(jī)制。結(jié)果發(fā)現(xiàn),RNA 實(shí)際上控制著我們身體中蛋白質(zhì)的工作方式。
如果我們能徹底搞清楚 RNA 是怎么調(diào)控 DNA 表達(dá)的,那很可能就能攻克大量疾病,對(duì)整個(gè)人類社會(huì)來(lái)說(shuō)是一次巨大的飛躍。
所以,用類語(yǔ)言模型去做這類 RNA 研究項(xiàng)目,就像當(dāng)年用超級(jí)算力破解人類基因組一樣——這會(huì)是一個(gè)非常酷的應(yīng)用方向,如果你真的能動(dòng)用大量算力的話。
主持人Sarah:真的很振奮人心,而且這確實(shí)是人類面臨的最大問(wèn)題之一。
感謝你們(參與訪談)。