多智能體架構(gòu)大論戰(zhàn):當AI巨頭意見分歧時,該相信誰?
我最近看到一個很有意思的現(xiàn)象,說實話,這在AI圈還挺少見的。
兩個頂級AI公司,Anthropic和Cognition,在同一個技術(shù)問題上給出了完全相反的答案。而且不是普通的小分歧,是那種根本性的、關(guān)乎整個技術(shù)路線的大分歧。
什么問題這么有爭議?多智能體架構(gòu)。簡單說就是讓多個AI智能體協(xié)同工作,還是讓單個智能體獨自完成任務。
你想想,這就像兩個頂級廚師,一個堅持說做大餐必須要團隊協(xié)作,每個人負責不同的菜;另一個堅持說只有一個主廚獨自完成,才能保證口味的一致性。
爭論的核心在于"可靠性"這個關(guān)鍵詞。
Cognition的負責人Walden發(fā)了一篇博客叫《Don't Build Multi-Agents》,開門見山地警告大家:別搞多智能體,這玩意兒很脆弱!
Cognition認為多智能體架構(gòu)非常脆弱,關(guān)鍵的失敗點在于子智能體可能誤解任務并產(chǎn)生不一致的結(jié)果,導致最終的智能體難以整合這些誤解。
他們的邏輯很直接:當你讓一個主智能體把"做Flappy Bird游戲"的任務分給兩個子智能體,一個負責背景,一個負責小鳥,結(jié)果可能是——背景做成了超級馬里奧風格,小鳥完全不像游戲素材。最后主智能體拿到這兩個"誤解",怎么整合?
但Anthropic完全不這么看。他們不僅在用多智能體,還專門寫了一篇技術(shù)博客來"炫耀"他們的多智能體研究系統(tǒng)有多牛。
數(shù)據(jù)顯示90.2%的性能提升,這意味著多智能體系統(tǒng)在復雜研究任務上幾乎是單智能體的兩倍效果。
Anthropic的核心觀點是:多智能體系統(tǒng)是擴展性能的關(guān)鍵方式。特別是對于那些信息量超出單個上下文窗口、需要大量并行化處理的任務。
搜索的本質(zhì)是壓縮:從龐大的語料庫中提煉洞察。子智能體通過并行操作,各自在獨立的上下文窗口中探索問題的不同方面,然后為主研究智能體壓縮最重要的信息。
聽起來很有道理吧?但成本也很現(xiàn)實:多智能體系統(tǒng)消耗的token是普通聊天的15倍。
那問題來了,誰對誰錯?
我的判斷是,他們其實都對,只是適用場景完全不同。
Cognition做的是Devin,一個編程智能體。編程任務有個特點:上下文依賴性極強。你改一行代碼,可能影響整個項目的邏輯。在這種情況下,讓多個智能體并行工作,確實容易出現(xiàn)不一致的問題。
而Anthropic的Research功能,處理的是研究類任務。比如"分析AI代理公司在2025年的發(fā)展趨勢",這種任務天然就可以拆分成獨立的子任務:市場分析、技術(shù)趨勢、投資動向等等。各個子任務之間關(guān)聯(lián)性不強,正好適合并行處理。
但這背后還有更深層的考量。
Cognition強調(diào)的"上下文工程",其實是在解決一個根本性問題:如何保證智能體的決策一致性。他們提出兩個核心原則:
1. 共享上下文 - 不只是消息,要共享完整的智能體執(zhí)行軌跡
2. 動作承載隱含決策 - 沖突的決策會帶來糟糕的結(jié)果
說白了,就是害怕"雞同鴨講"。
而Anthropic的解決方案更工程化:
? 用"協(xié)調(diào)者-工作者"模式,主智能體負責總體協(xié)調(diào)
? 給子智能體提供詳細的任務描述,包括目標、輸出格式、工具指南
? 用"內(nèi)存"機制持久化上下文,防止重要信息丟失
最有趣的是token消耗的問題。
Anthropic很坦誠:智能體比普通聊天多用4倍token,多智能體系統(tǒng)多用15倍。但他們的邏輯是,在他們的分析中,token使用量本身就能解釋80%的性能差異。
多智能體系統(tǒng)的核心價值在于幫助花費足夠的token來解決問題。最新的Claude模型在token使用上有很大的效率倍增效果。
這就像是說,錢不是問題,關(guān)鍵是花錢要花得值。
但Cognition顯然不這么看。他們更關(guān)心的是在資源約束下的可靠性。畢竟,做一個編程任務,用戶不希望系統(tǒng)"燒錢"卻給出錯誤代碼。
這個爭論對我們有什么啟發(fā)?
首先,別迷信大公司的技術(shù)選擇。即使是頂級AI公司,面對同一個技術(shù)問題,也可能得出完全相反的結(jié)論。關(guān)鍵是理解背后的場景和約束。
其次,技術(shù)架構(gòu)沒有絕對的對錯,只有適合不適合。如果你在做需要嚴格一致性的任務(比如代碼生成、金融交易),單智能體可能更可靠。如果你在做可以并行化的開放性任務(比如市場研究、內(nèi)容創(chuàng)作),多智能體可能更高效。
最后,這個爭論本身就很有價值。它提醒我們,AI Agent的架構(gòu)設計還遠沒有成熟,還有很大的探索空間。
與其糾結(jié)誰對誰錯,不如想想自己的具體需求。
畢竟,最好的架構(gòu)不是最先進的,而是最適合你的問題的。正如Anthropic在文章最后說的:構(gòu)建AI智能體時,最后一公里往往成為大部分的旅程。
我因看見技術(shù)的分歧而激動如大海。這說明我們還在一個充滿可能性的時代。