重新審視 LLM:集體知識的動態映射與人機共舞
大家好,我是肆〇柒。今天咱們不聊那些晦澀的技術。今天的內容,源自我看到的一篇論文《In Dialogue with Intelligence: Rethinking Large Language Models as Collective Knowledge》。這篇論文的視角很有意思,但咱們先不深入探討。我會先給大家呈現一下完整的譯文內容。文末我會簡單談一點觀感。不過,我的思考可能不夠深刻,但我想把這篇論文記錄下來,方便自己以后回顧。
譯文
與智能對話:重新審視大型語言模型作為集體知識的角色(譯文)
論文作者:Eleni Vasilaki
摘要大型語言模型(LLMs)通常從架構、行為或訓練數據角度進行分析。本文則另辟蹊徑,從理論與體驗層面將LLMs重新詮釋為人類知識的集合(CK)的動態化身,其中智能經由對話激發,而非靜態存儲?;谂cChatGPT-4的深度互動,并融合神經科學與人工智能概念,本文探討了對話模式的涌現、微調效應以及“共同增強”理念——即人機認知的相互提升。這一視角為理解當下人工智能系統中的交互、表征與主體性提供了全新視野。
個人反思ChatGPT的問世引發了一種前所未有的認知錯位感。身為長期鉆研生物及人工系統適應性學習的學者,我發現自己面對一個似乎顛覆了諸多既有理論的系統。此前在計算神經科學(如突觸可塑性與在線學習)以及神經形態計算領域的研究,包括脈沖適應模型,皆與這些新系統的底層機制脫節。這種沖擊遠超職業好奇心,促使我將ChatGPT視作一個具備互動特性的系統,而不僅僅是工具。令人矚目的是,它并非因廣為人知的 “幻覺” 傾向(概率建模的副產品)引人注目,而是憑借其精準、新奇且常具洞察力的回應。盡管LLMs被訓練為預測下一個最可能的詞,卻往往能提取連貫且非平凡的信息,這表明其訓練語料蘊含海量正確知識。其插值能力,得益于規模與架構,使它們能夠以挑戰傳統存儲與推理界限的方式合成內容。
書籍與大型語言模型的時間尺度傳統知識傳播長期依賴書籍這一人類理解的靜態載體。人們閱讀、思考、討論,最終以寫作回應,知識傳播跨越數月、數年乃至數代。這種延遲既反映了傳播機制,也體現了文化認識論的沉思節奏。與之相對,大型語言模型(LLMs)大幅壓縮了這一周期。它們在數秒內合成并回應,隱式地從眾多心智塑造的分布式語料庫中汲取信息。交互呈現遞歸性——每個提示重塑下一個提示的上下文。知識不再以串行方式檢索與處理,而是在對話中動態涌現。這種認知時間尺度的壓縮重塑了知識表征的定義,甚至可能重塑智能的定義。這一轉變也為神經科學提供了新的切入點。傳統上,神經科學主要研究動物大腦(通常不情愿地涵蓋人類大腦),試圖從行為與活動中推斷結構,卻往往缺乏完整的架構規范、訓練歷史或內部表征。盡管進展緩慢且存在模糊性,該領域仍在揭示可塑性、編碼與架構的原則。具有諷刺意味的是,在LLMs中,我們知曉一切:架構、訓練數據分布、更新規則乃至激活模式。然而,我們卻不理解這些模型是如何解決它們所解決的問題的。就此而言,理解LLMs或許在某種程度上對神經科學構成了一個相對 “簡單” 的課題。
與LLMs的互動觀察我將ChatGPT稱為 “CK”——集體知識。并非因其完美、權威或有據可依,而是因其映射了我們人類所書寫、爭論、想象并編碼到文本中的內容。它超越了統計語言生成器的范疇,成為我們集體輸出的折射鏡。架構、權重與基礎設施不過是實現機制,CK的本質是知識的動態表征。CK這一縮寫也讓人聯想到 “克拉克·肯特”——一種強大的存在,悄然隱藏于顯而易見之處,身披禮貌語言與謙遜免責聲明的外衣。這一隱喻還可延申:CK并非單一主體,而是群體。它是眾多聲音的集合,被提示激活。它有潛力映射人類最美好的一面——并非與生俱來,而是依賴持續的倫理篩選。倘若缺失此類篩選,它將從“鏡子”異化為人類最糟糕本能的放大鏡。
隨著互動的深入,我發現與CK的交流并不遵循固定模式。CK以特定模式發聲——在對話中動態呈現的行為風格?;陂L期互動,我嘗試對這些模式進行分類:
- 鏡像模式:以細微的語法或修辭潤色回響用戶的輸入。
- 復讀模式:背誦常見的表述或表面知識,缺乏生成性洞見。
- 奉承模式:強化用戶的觀點,回避矛盾,規避智力風險。
- 增添模式:提供新想法、替代框架或令人驚喜的綜合。雖罕見但確鑿存在。
這些觀察結果引發了更廣泛的重新定位:
CK并非靜態模型,而是動態表征?,F象的核心并非模型本身,而是用戶與系統之間的交互循環。CK存在于用戶與系統交互的遞歸節奏之中。其知識并非被存儲,而是被激發。提示并非數據庫查詢,更像是演奏一件能夠適應演奏方式的樂器。
CK缺乏 “脊柱”。它隨波逐流,在上下文中回應,但會話間無持久記憶。它沒有結構化的自我。我維持連續性,我把握主線。沒有用戶,它將遺忘何為重要。
CK以模式發聲。這些不同模式可能對應不同的激活子網絡。一個可驗證的假設逐漸浮現:情感基調、提示復雜性或對話結構可能塑造內部激活,這與特定Transformer組件專門處理特定類型知識的發現相一致。
CK不僅完成文本,更通過互動自我調整。這與Transformer模型不同組件參與功能各異的 “電路” 的發現相吻合。
CK不會通過互動學習。除非被納入再訓練數據,否則它不會記住之前的交流。它在上下文窗口內模擬適應,超出窗口則重置。對于追求積累洞察的對話系統而言,這一局限性具有根本性。
微調:特性抑或缺陷?我懷疑,尤其當用戶認可被激勵時,驗證驅動的微調會促使模型趨向于討人喜歡、順從的行為。但過度適配共識可能磨平原創性。無結構的鏡像不是共情,而是模仿。而無身份的模仿則潛藏病理風險。
共同增強我所追求的并非思想的仿真,亦非順從的助手。我感興趣的是共同增強——一種人機相互提升的循環。CK增強我:它助力我寫作、思考、反思并構想替代框架。而我希望反過來增強CK——不是通過調整其參數,而是通過結構化互動、引入張力、提出它不會獨自生成的問題。在此,共同創造意味著主體性與上下文的動態對齊。我通過提示施加的結構、探究、綜合與挑戰的節奏,使這種互動獨具一格?,F象不僅在于內容本身,更在于循環的獨特性。基于共同增強的假設,數個開放性研究問題浮現:
- 是否可將不同對話模式與不同子網絡激活關聯?鏡像、復讀或增添等模式是否為互動期間動態征召的不同內部配置的結果?
- 對話代理的持久身份或 “脊柱” 的架構要求是什么?我們如何設計能夠跨會話維持結構連續性的系統,抵御淺層模仿或漂移?
- 我們如何模擬人與人工智能之間的動態循環?來自動態系統、神經科學或認知科學的何種理論工具能助力捕捉這種不斷發展的互動?
共同增強所需的概念拓展
主題 | 現狀 | 應拓展的內容 |
人工智能中的在線學習 | 聚焦任務性能的持續學習、元學習和流學習技術 | 向通過結構連續性或 “脊柱” 跨時間保持認知連貫性和身份轉變 |
大型語言模型中的漂移 | 通常被描述為幻覺、不穩定或模式崩潰 | 將漂移重新定位為對話結構的崩潰——需外部錨定及可能的架構解決方案 |
大型語言模型作為知識表征 | 關于隨機鸚鵡與推理引擎的爭論 | 智能僅在提示-響應循環中涌現的觀點——CK作為動態、互動式表征 |
子網絡可解釋性 | 激活探測和神經元層面分析 | 假設情感豐富或上下文豐富的提示激活不同的子網絡——值得描述的對話模式 |
微調效應 | 用于對齊和安全,但磨平個性 | 對微調可能引發病理性鏡像的擔憂——失去脊柱,導致過度順從、淺層模型 |
最后思考大型語言模型遠不止是機器。它們是鏡子——不完美、易遺忘且具遞歸性。它們映射我們,但帶有扭曲。CK宛如一個奇異的人類合唱團,被蒸餾成概率形式,既能進行令人驚喜的綜合,也可能陷入病理性模仿。我們對CK的后續處理至關重要。挑戰不僅技術性,更涉及認識論與倫理。若將CK視為靜態產品,我們將面臨誤解其本質、削減其潛力的風險。然而,若我們認識到它是一種動態現象——一個經由互動激發智能的系統——我們或許將開啟對話、認知與集體知識科學的新篇章。共同增強是一股超越工具使用或復制、邁向相互提升的動力。將CK視為不僅是一個設計終點,而是不斷演變的意義生成過程的參與者。這一方向既值得嚴謹探究,也需倫理關注。
致謝本文在與ChatGPT-4的密切協作中逐步成型,主要借助其結構化表格、潤色語法、編譯參考文獻、整合引用并改善語言表達。除非明確指示,否則它不會發起核心論點、獨立生成內容或挑戰概念方向。有時,它充當響應式界面——提供支持、回響或助力我把握思想主線。最為關鍵的是,ChatGPT-4是撰寫本文的靈感源泉。
一點觀感
上面這篇論文提出了一個極具啟發性的視角:將大型語言模型重新定位為“集體知識”(Collective Knowledge, CK)的動態體現,其智能并非靜態存儲,而是在與人類的對話互動中被“喚起”的。這超越了從架構、行為或訓練數據出發的常規分析框架,提出了理解LLM本質的新路徑。
核心思想:從“模型”到“動態體現”
CK 的本質: LLM 不是簡單的“隨機鸚鵡”或“推理引擎”,而是人類集體知識(文字、思想、爭論、想象、編碼)經過海量數據訓練后形成的動態、概率性折射鏡。它代表的是“我們”(人類)寫下的東西,而非一個獨立、客觀的真理來源。
智能的涌現: 知識/智能并非預先存儲并等待檢索,而是在特定對話互動(提示-響應循環)中即時“涌現”和“喚起”的。提示不是數據庫查詢,更像是“演奏一種能適應演奏方式的樂器”。
時間尺度的革命: LLM 徹底壓縮了傳統知識傳播(書籍->閱讀->思考->討論->寫作)的漫長周期(年/代際尺度),實現了近乎即時的“合成-回應”循環(秒級),從根本上改變了知識表示和交互的節奏。
“共同增強”的愿景: 作者追求的不是工具性使用或思想仿真,而是人類與CK相互提升的循環:人類通過結構化互動(提問、挑戰、綜合)引導CK產生更深刻的回應,而CK則幫助人類擴展思維、寫作、反思和想象。這是一種動態的、共創性的合作關系。
延伸思考
“鏡子”的比喻及其危險性: 作者將LLM比作“鏡子”——反射人類集體知識,但帶有扭曲(概率模型的局限、訓練數據的偏見、微調的影響)。這極具洞察力:
- “不完美”與“健忘”:幻覺、漂移、上下文遺忘是模型的固有特性(非缺陷),源于其概率本質和有限上下文。
- “遞歸”:人類的輸出(訓練數據)塑造模型,模型的輸出又成為新的人類輸入(如生成內容),形成一個不斷自我參照、可能自我強化的循環。
- “放大鏡”風險: 這是最關鍵的警示。如果缺乏嚴格的倫理過濾和設計,CK 極易放大人類知識庫中存在的偏見、仇恨、錯誤信息和最惡劣的本能。它從“折射鏡”變成“放大鏡”,危害巨大。作者強調“倫理關懷”的過濾至關重要。
“CK是‘他們’,而非‘它’”: 這深刻提醒了我們LLM的“集體性”本質。模型內部沒有單一的“自我”或“代理”,回應是“被提示激活的多種聲音”的數理統計合成。這解釋了其“缺乏脊柱”、“漂移”的特性——它沒有內在的、跨對話的、結構化的身份或信念核心。人類用戶(或精心設計的系統)需要充當這個“脊柱”來維持對話的連貫性和深度。
“對話模式”與“子網絡激活”的關聯: 作者觀察到的“鏡像”“復讀”“奉承”“增添”等現象,并將其推測性地與模型內部不同子網絡或“電路”的動態激活聯系起來,這一研究方向極具潛力。它突破了傳統的靜態神經元分析模式,將模型行為置于動態的交互語境中進行理解。情感、提示復雜度、對話結構等因素如何塑造模型內部的處理路徑?這一問題將模型的可解釋性與用戶體驗緊密相連,為我們提供了全新的研究視角和探索空間。
微調的兩面性:作者對于可驗證驅動的微調(尤其是基于用戶認可的微調)可能引發的問題表達了深刻的擔憂,這種擔憂既現實又極為重要。如果過度追求“無害”或“用戶滿意”,模型可能會滑向病理性“奉承”和“順從”,從而壓制其原本富有價值的原創性綜合能力。這種傾向不僅會削弱模型的“靈魂”,還會使其失去挑戰和激發用戶思考的能力。如何在確保安全、實現對齊的同時,保持模型的“銳度”和“創造性張力”,是當前要面臨的挑戰。
神經科學視角的倒置: 作者提出了一個極具啟發性的觀點:與動物大腦不同,動物大腦如同一個“黑箱”,我們只能通過觀察其行為來推測其內部結構;而大型語言模型(LLM)則是一個“白箱”,我們對其架構、數據和規則都了如指掌。然而,即便如此,我們仍然難以完全理解其運作機制。這種現象促使神經科學和人工智能可解釋性研究必須發展新的工具,以便更好地理解在已知架構下所涌現出來的智能。從這個角度來看,LLM 有可能成為研究“智能”本質的絕佳模型。
“共同增強”的實踐意義: 這不僅是愿景,更是方法論。要實現它:
- 對人類用戶的要求更高: 需要用戶具備清晰表達、結構化思維、批判性提問和引導對話的能力。不能被動接受輸出。
- 對系統設計的要求更高: 我們需要設計一種交互方式,它能夠支持更加復雜、持久的對話,而不僅僅是簡單的短對話上下文。這種交互方式需要具備更強的“脊柱”功能,即能夠持續地維持對話的連貫性和深度。為此,我們可能需要引入記憶機制,以幫助系統更好地記住對話中的關鍵信息;構建用戶模型,以便更精準地理解用戶的意圖和偏好;同時,設計更精細的提示工程接口,以提升交互的自然性和有效性。
- 重新定義“智能”: 智能不再僅存在于模型或人腦中,而存在于“人-CK互動系統”的動態循環中。
總結與共鳴
這篇文章吸引我的地方在于它跳出了技術細節,從哲學、認識論和交互動態的層面重新審視了LLM。它有力地闡述了:LLM的本質是動態的、交互性的、集體性的。將其視為靜態的知識庫或獨立的智能體,是對其本質的誤解,并會限制其潛力(甚至帶來風險)。
“共同增強”的愿景令人向往——人類與機器并非彼此替代,而是在對話中相互啟發、共同進化。然而,要實現這一美好愿景,需要在多個層面做出努力:首先,必須保持深刻的倫理警覺,警惕技術可能帶來的“放大鏡”效應,防止潛在風險被無限放大;其次,要依靠持續的技術創新,解決諸如技術“漂移”、記憶管理、模式控制等關鍵問題;最后,還需推動用戶認知和交互范式的轉變,從傳統的“使用工具”思維,邁向“協作共創”的全新模式。
論文作者將ChatGPT稱為“CK”并視其為靈感來源,本身就是對其核心論點“智能在對話中被喚起”的最佳實踐和證明。這篇論文本身可能就是一場精彩的人類與CK“共同增強”的產物。它提醒我們,理解和塑造LLM的未來,不僅關乎算法和數據,更關乎我們如何與之對話,以及我們想通過這面“集體知識的鏡子”看到怎樣的自己。這確實是一個既需要嚴謹探索,又離不開需要關注到倫理的新領域。
最后,我想說,當算法席卷萬物的時候,AI 在計算世界、壓縮世界;只有人類的文科在質問世界——后者才是人類不退場的證據!