超越ChatGPT:通向AGI的五個最嚴峻挑戰
但像我們這樣看著《星際迷航》、《銀翼殺手》或《2001太空漫游》長大的人知道,這只是個開始。
與那些虛構世界中的AI,甚至是人類自己相比,今天的AI無法完全探索、交互并從這個世界中學習。如果它可以做到,就像《星際迷航》中那個非常有用的機器人Data(或一個人類)一樣,它可以學會如何解決任何問題或執行任何工作,而不僅僅局限于它最初被訓練來做的事情。
包括ChatGPT的創造者OpenAI在內的一些全球頂級AI研究人員認為,構建這種智能的機器,即AGI,是AI發展的圣杯。AGI將使機器能夠“泛化”知識,并處理幾乎所有人類能執行的任務。
不過,要實現這一目標,我們還有一些相當大的問題需要解決。AI領域的進一步突破、巨額投資以及廣泛的社會變革都將必不可少。
以下是我對如果我們想打造電影中承諾的那個光明、全自動、由AI驅動的未來(可能出錯的地方?)所必須克服的五大障礙的概述:
常識和直覺
今天的AI缺乏充分探索和利用其所在世界的能力。作為人類,我們通過進化學會了很好地解決現實世界中的問題,利用我們能得到的任何工具和數據。而機器沒有做到這一點——它們是通過從現實世界中提煉出的數字數據(無論保真度如何)來了解世界的。
作為人類,我們構建了一個“世界地圖”,為我們理解世界提供了信息,并因此為我們成功完成任務提供了能力。這個“地圖”是根據我們的所有感官、所學的一切、固有的信仰和偏見以及經歷的一切構建而成的。機器則通過在網絡上移動的數字數據,或使用傳感器收集的數據進行分析,還無法達到這種深度理解。
例如,在計算機視覺方面,AI可以觀看飛行中的鳥類視頻并學習很多關于它們的知識——也許包括它們的大小、形狀、種類和行為。但它不太可能通過研究它們的行為,而發現自身飛行的方法,并將這種學習成果應用于建造飛行器,就像人類所做的那樣。
常識和直覺是智力的兩個方面,仍然是人類所獨有的,對我們駕馭模糊性、混亂和機遇至關重要。在實現AGI之前,我們可能需要對它們與機器智能的關系進行更深入的研究。
學習的可遷移性
我們通過廣泛的世界交互所發展出的一個天生能力,是將從一項任務中獲得的知識應用到另一項任務中。
今天的AI是為狹隘的任務而構建的。一個醫療聊天機器人可能能夠分析掃描結果、與患者咨詢、評估癥狀并開出治療方案。但讓它診斷一臺壞掉的冰箱,它就會不知所措。盡管這兩項任務都依賴于模式識別和邏輯思維,但AI在數據處理方面仍然缺乏靈活性,無法解決其明確訓練之外的問題。
相比之下,人類可以跨完全不同的領域運用問題解決、推理和創造性思維技能。因此,例如一位人類醫生可能會利用他們的診斷推理能力去排除故障冰箱的問題,即使沒有接受過正式的培訓。
為了AGI的存在,AI必須開發出這種能力——在不需要完全重新訓練的情況下將知識應用于不同領域。當AI能夠在不需要對全新數據集進行重新訓練的情況下建立這些聯系時,我們就離真正的通用智能又近了一步。
物理與數字的鴻溝
我們通過感官與世界進行交互。機器則必須使用傳感器。這其中又體現了進化的差異,進化磨練了我們數百萬年來觀察、傾聽、觸摸、嗅聞和品嘗的能力。
相比之下,機器則依賴于我們賦予它們的工具。這些工具是否為其收集解決問題所需數據的最佳方式還不好說。它們可以以我們允許的方式與外部系統進行交互——無論是通過數字方式的API接口,還是物理方式的機器人。但它們沒有一套可以適應與世界任何方面互動的標準工具,就像我們有手和腳一樣。
要像我們所做到的那樣,以高超的方式與物理世界進行交互——例如協助體力勞動,或訪問它未獲得特定授權的計算機系統——將需要能夠彌合這一鴻溝的AI。我們已經在Operator等自主式AI工具的早期迭代中看到了這一點,它使用計算機視覺來理解網站并訪問外部工具。然而,要讓機器能夠獨立地探索、理解和與物理和數字系統交互,從而使AGI不僅僅是夢想,還有更多的工作要做。
可擴展性的困境
即便是如今AI模型的訓練和部署,也需要海量的數據和算力。但根據我們目前的理解,要實現AGI所需的數據和算力可能是成倍增加的。人們已經開始擔心AI的能耗問題,要實現這個目標,還需要越來越大型的基礎設施項目。是否有意愿投資到必要的程度,很大程度上將取決于AI公司能否證明他們能從前代AI技術(如現在很多公司正在利用的GenAI浪潮)中賺取投資回報。
據一些專家稱,我們已經看到,僅僅通過向構建更智能AI的問題中投入更多的算力和數據,所獲得的回報正在減少。ChatGPT的最新更新——Omni系列模型,以及最近公布的競爭對手DeepSeek,都聚焦于增加推理和邏輯能力。但這會使得工具在用戶手中的推理階段(而非訓練階段)需要更多的算力。不管采用哪種解決方案,AGI可能需要的算力比現在可用的算力要大幾個數量級,這就是它還未到來的另一個原因。
信任問題
這是一個非技術性的障礙,但這絲毫不會讓它成為一個較小的問題。問題是,即使技術準備好了,社會是否準備接受機器取代人類,成為這個星球上最強大、最聰明和最能適應的實體?
一個很好的理由是,它們可能不會這樣做,因為機器(或創造它們的人)還沒有達到所需的信任水平。想想自然語言、GenAI聊天機器人的出現是如何引發軒然大波的,它讓我們認識到這對從工作到人類創造力的一切領域都將產生影響?,F在想象一下,當能夠自主思考并在幾乎所有事情上擊敗我們的機器出現時,會有多少恐懼和擔憂。
如今,許多AI系統都是“黑箱”,這意味著我們對其內部運行情況或如何工作知之甚少。社會要足夠信任AI,讓其為我們做決策,AGI系統必須達到當今AI系統所遠遠不及的可解釋性和可問責性水平。