成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

田淵棟:連續思維鏈效率更高,可同時編碼多個路徑,“疊加態”式并行搜索

人工智能 新聞
連續思維鏈的并行搜索類似于量子疊加,比離散型思維鏈更具優勢。

AI也有量子疊加態了?

連續思維鏈的并行搜索類似于量子疊加,比離散型思維鏈更具優勢。

這是AI大牛田淵棟團隊的最新研究成果。

圖片

傳統LLM通過生成 “思維token”(如文本形式的中間步驟)進行推理(即離散思維鏈),但在處理復雜任務(如判斷有向圖中節點是否可達)時效率低下,需要O(n^2)步解碼(n為節點數),且容易陷入局部解。

近期研究發現,用連續隱向量(非離散token)進行推理能顯著提升性能,但缺乏理論解釋。

田淵棟領銜來自UC伯克利、UCSD的科學家們利用連續空間中的 “疊加態”,讓大模型進行并行推理,大幅提升了模型在圖可達性等任務中的表現,給上述連續思維鏈提供了理論支持。

圖片

團隊證明了:

對于具有n個頂點且直徑為D的圖, 一個包含D步連續CoTs的兩層Transformer可以解決有向圖可達性問題,而具有離散CoTs的恒定深度Transformer的最佳已知結果需要O(n^2)個解碼步驟。

簡單來說,對于有向圖可達性問題,離散思維鏈類似于深度優先搜索(DFS),每次只能選擇單一路徑,導致步驟多且容易受限。

連續思維鏈可以同時編碼多個候選圖路徑,類似于廣度優先搜索(BFS),并且可以利用這種“疊加”進行隱式的「并行搜索」,比離散思維鏈更具優勢。

讓我們來看看實驗細節。

跟著“導航”找思維路徑

像 “導航儀” 一樣的注意力選擇器

團隊設計了一種注意力選擇器機制,使模型能根據當前token選擇性地關注特定位置(如邊的源節點和目標節點),確保信息的有效提取。

這個注意力選擇器就好比我們開車時用的導航儀,能幫模型在一堆信息里精準找到該關注的地方。

圖片

具體來說,當模型在處理信息時,遇到特定的 “標記”,比如表示一條邊結束的token,就像導航儀識別出一個路口標識,這時候它就會自動把注意力集中到這條邊的起點和終點節點上。

就像你看到 “前方路口右轉” 的提示后,會重點關注那個路口的位置。

如果沒遇到這種明確的標記,注意力選擇器就會模型去關注開頭的信息,比如問題最開始給出的條件,這樣就能確保模型不會在信息堆里迷路,始終能從正確的起點開始思考。

兩層連續思維Transformer進行疊加態維護

什么是連續思維的“疊加態”?

我們這里所說的“疊加態” 就像一個裝著所有可能答案的“盒子”。

比如,從根節點出發走c步后,這個盒子里不會只裝著一條路徑,而是同時裝著所有c步內可達的節點,這些節點的信息被 “揉” 成一個向量(即思維向量),讓模型能一次性處理所有可能性,而不是一次只考慮一條路徑。

第一層Transformer:“整理” 邊的信息

圖片

假設我們有一個有向圖,邊用token表示,每個邊token旁邊還帶著它的源節點(起點)和目標節點(終點)。

此外,根節點r是探索的起點,初始思維向量就是r的嵌入向量圖片。

第一層Transformer 有5個注意力頭,每個頭就像一個 “信息收集小助手”,它們的任務是:

  • 當遇到一個邊token時,小助手會 “主動” 關注這個邊的源節點和目標節點,并把這兩個節點的信息 “復制” 到邊token的位置上,就像在邊token旁邊貼兩張標簽,分別寫著 “起點是XXX” 和 “終點是XXX”。
  • 舉個例子:如果有一條邊是從節點A到節點B,邊token會被處理成包含A和B的信息,方便后續使用。

經過第一層處理后,每條邊的信息都被明確標注了起點和終點,初始思維向量也被保留下來,作為下一步探索的基礎。

第二層Transformer:“并行探索” 所有可能路徑

圖片

這一層就像 “探索指揮官”,它會根據當前的疊加態(即當前能到達的所有節點),去尋找下一步能到達的新節點:

  • 假設當前疊加態里有節點集合Vc(c步內可達的節點),模型會 “掃描” 所有邊,看看哪些邊的源節點在Vc里。比如,若Vc里有節點A和B,就查看從A和B出發的所有邊。
  • 對于符合條件的邊,其目標節點會被 “添加” 到疊加態中,形成新的節點集合Vc+1(c+1步內可達的節點)。這就好比從A和B出發,發現能到達C和D,于是把C和D也放進 “盒子”,讓下一輪探索能考慮這些新節點。

MLP層:“過濾” 和 “平衡”

  • 過濾噪聲:疊加態在擴展過程中可能會混入一些 “不重要的節點”(類似盒子里進了雜物),MLP層會像 “篩子” 一樣,把那些權重很小的節點(即幾乎不可能到達的節點)過濾掉,只保留有價值的節點。
  • 平衡權重:過濾后,MLP層會讓剩下的節點在疊加態中的 “權重” 變得均勻,就像把盒子里的節點信息整理得整整齊齊,不讓某個節點的信息 “壓倒” 其他節點,確保模型能公平地考慮每一個可能的路徑。

圖片

對比試驗及結果

團隊使用ProsQA數據集的子集進行實驗,該子集中的問題需要3-4推理步長來解決,且圖中的每個節點都作為一個專用token注入到詞匯表中。

實驗結果顯示,采用COCONUT(連續思維鏈)的2層Transformer模型在解決ProsQA問題時表現出色,準確率接近100%。

相比之下,12層的離散CoT模型準確率僅為83%,而無CoT基線模型只能解決約75%的任務。

圖片

此外,團隊還通過對注意力模式和連續思維表示的分析,進一步證實了模型中存在預期的疊加態搜索行為,直接支持了“疊加態存在”的理論假設。

圖片

不僅能搞科研,還能寫小說

田淵棟任職于Meta GenAI(前FAIR),但業余時間是一位小說家(doge)。

沒錯,具體來說是科幻小說家。

田淵棟在談到第一部作品的寫作動因時說:

在AI最火熱的時候我寫了本小說

2020年到2021年,他完成了第一部長篇科幻小說《破曉之鐘》,該作品于2024年6月正式出版。

圖片

△圖源田淵棟知乎

《破曉之鐘》講述了幾個初出茅廬的科學家們如何面對來自外太空的挑戰、如何處理人類危機的故事。

但區別于《三體》,《破曉之鐘》的技術背景離我們當前所處的時代更近,甚至都是我們這幾年人人都在談論、全球火熱的技術風口。

這本書的核心觀點是:AI只是在模仿數據,卻讓人誤以為它有智慧。

這一觀點寫于ChatGPT爆火之前,卻精準預言了大語言模型的本質。

這部作品也收獲了不少讀者的好評。

圖片

圖片

田淵棟在今年5月接受交大校友采訪時還透露,由于寫第一部小說時還沒有大模型,所以每個字都是自己手敲的,接下來的第二部應該會用AI嘗試一下輔助寫作。

目前,他的第二部小說正在構思中,還是延續《破曉之鐘》世界觀,時間線會往后推很多,可能涉及到“群體意識”和“星際殖民”這類議題。

他說:

我希望寫出更大的宇宙,但核心依然是人類的選擇與掙扎。

圖片

論文地址:https://arxiv.org/abs/2505.12514

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-12-19 09:48:07

2024-12-12 09:00:00

2024-02-26 00:20:00

AI模型

2023-03-17 08:28:17

GPT-4AI

2025-02-17 09:30:00

AI訓練模型

2025-03-03 09:16:00

Meta模型預測

2023-06-12 09:57:22

AIChatGPT

2024-10-28 08:50:00

2020-09-22 09:54:19

谷歌Android開發者

2023-12-07 06:51:18

AI模型

2024-02-27 11:46:40

2024-03-08 12:35:41

模型數據

2024-10-17 14:10:00

模型訓練

2023-06-30 09:49:23

模型Meta

2023-08-04 13:42:41

2025-03-25 09:12:00

LIMAI模型

2023-11-27 14:00:00

訓練模型

2023-06-28 18:10:27

羊駝家族大模型集體進化

2024-10-16 13:50:00

模型AI

2018-08-03 10:25:53

區塊鏈大數據比特幣
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产中文在线观看 | 人妖一区 | 综合一区二区三区 | 黄色毛片在线播放 | 日韩精品一区二区三区视频播放 | 一二三在线视频 | 久久精品99久久 | 五月婷婷在线视频 | 美女精品一区 | 久久国产一区二区三区 | 无码日韩精品一区二区免费 | 亚洲色图在线观看 | www.av在线| 97精品超碰一区二区三区 | 天堂久久网 | 日韩精品免费在线观看 | 欧美一区2区三区4区公司 | 国产精品波多野结衣 | 欧美性大战xxxxx久久久 | 国产乱码精品一区二区三区五月婷 | 午夜欧美一区二区三区在线播放 | 嫩草研究影院 | 二区在线视频 | 成人免费在线电影 | 五月天国产视频 | 伊人手机在线视频 | 国产99久久精品一区二区永久免费 | 国产91久久久久蜜臀青青天草二 | 美国十次成人欧美色导视频 | 在线播放国产视频 | 美美女高清毛片视频免费观看 | 日韩欧美精品一区 | 91久色| 999在线精品 | 日本成人午夜影院 | 中日av | 亚洲精品一区二区三区在线 | 91私密视频 | 这里只有精品999 | 99精品国自产在线观看 | 亚洲欧美日本在线 |