圖靈獎得主的成功之路,Yann LeCun自述傳記
人工智能常常被認(rèn)為是一項將要顛覆世界的技術(shù),從這一概念誕生至今的 65 年中,無數(shù)電影與小說塑造了各種經(jīng)典的人工智能角色,AI 也很快成為人類未來世界藍(lán)圖中的重要組成部分。但在人工智能不斷拓寬我們對未來想象的同時,也不乏「AI 統(tǒng)治世界」、「AI 監(jiān)視隱私」等等一類的消極論調(diào)。
在所有擊碎人類宇宙中心信念基石的科學(xué)革命中,人工智能絕對算是其中我們又愛又恨的一場。李世石被 AlphaGo 擊敗后流下的淚水已經(jīng)干了,但人類對于 AI 的恐懼和想象還在無限蔓延。那么,AI 真的比我們更聰明嗎?
在 AlphaGo 戰(zhàn)勝了韓國棋手李世石后,一名比利時程序員在 DeepMind 發(fā)表的最新論文的基礎(chǔ)上開展了一項開源的圍棋 AI 項目—— LeelaZero,曾有人嘗試與其對弈,結(jié)果是 Leela 在 19 路盤面取得壓倒性勝利,而在 25 路棋局上完敗,且無一例外。這說明只接受過 19 路圍棋訓(xùn)練的人工智能 Leela 也只會下 19 路的圍棋,即使那些數(shù)據(jù)一直存儲在其數(shù)據(jù)庫中,它也不知道該如何將 19 路盤面的訓(xùn)練「經(jīng)驗」移植到 25 路圍棋的對戰(zhàn)上。
那么問題來了,一直以來被認(rèn)為終將反超人類的人工智能,難道并不聰明嗎?
2019 年 3 月,ACM 宣布將圖靈獎授予深度學(xué)習(xí)三巨頭 Geoffrey Hinton、Yoshua Bengio 和 Yann LeCun ,以表彰三人「在深度神經(jīng)網(wǎng)絡(luò)概念和工程上的突破」。最近,圖靈獎得主、Facebook 首席人工智能科學(xué)家 Yann LeCun 在他的新書《科學(xué)之路:人,機(jī)器與未來》中告訴我們:AI,真的不是你想的那樣。

AI,真的不是你想的那樣
人工智能正在改變?nèi)祟悓ψ陨淼目捶ǎ粩鄾_擊著人類獨有的的「物種」傲慢。在文藝作品中,AI 危險又美麗,為人類服務(wù)卻各方面都比人類更加強(qiáng)大、更有創(chuàng)意。但在現(xiàn)實中,AI 落地的應(yīng)用卻往往不懂常識、行動遲緩且耗能極大。
當(dāng)你凝視人工智能時,人工智能并不一定在凝視你,因為它根本不知道你為什么要凝視他(至少現(xiàn)在不知道)。原因就是人工智能缺乏常識,沒有感知,甚至沒有辦法根據(jù)場景變換對已存儲的知識活學(xué)活用。
DeepMind 訓(xùn)練了一個可以玩經(jīng)典雅達(dá)利(Atari)視頻游戲的系統(tǒng),系統(tǒng)一共包括 80 個游戲,每場比賽它至少要花費 80 個小時來訓(xùn)練,才能勉強(qiáng)達(dá)到合格水平,而一個人只需要 15 分鐘就可以做到這一點。但實際上,這 80 個小時是機(jī)器實時玩游戲時所花費的訓(xùn)練時間,在訓(xùn)練結(jié)束之后,它可以用(比人類)更快的速度進(jìn)行游戲,甚至可以同時進(jìn)行多個游戲。也就是說,如果讓系統(tǒng)運行更長的時間,它將達(dá)到人類無法企及的超高效率。
但并不是所有應(yīng)用 AI 的系統(tǒng)都有足夠的時間成本去用更長時間接受更多的訓(xùn)練,比如自動駕駛領(lǐng)域。自動駕駛系統(tǒng)中的 AI 必須跟隨汽車在道路上行駛以獲得更多訓(xùn)練數(shù)據(jù)—— 必須駕駛數(shù)百萬個小時,模擬引起成千上萬次的撞車事故,而后才能學(xué)會如何避免撞車。如果汽車掉下懸崖,系統(tǒng)一定會說「哦,我一定是錯了」,但這只會稍微糾正其策略。第二次,汽車可能會以不同的方式掉下懸崖,然后系統(tǒng)會再次糾正一點。依此類推,在系統(tǒng)徹底弄清楚如何避免跌落懸崖之前,汽車必須像這樣重復(fù)跌落懸崖數(shù)千次(還不止),其執(zhí)行難度和資金耗費可想而知。
以上兩個示例足夠說明一點:AI 不是天才,不能輕而易舉地獲得「智慧」,它需要大量的訓(xùn)練和數(shù)據(jù)支撐才能在某一具體事件上做到人們所說的「聰明」,但這中間耗費的時間、算力等等成本又遠(yuǎn)遠(yuǎn)超過人們的普遍預(yù)想。
人工智能悖論:至關(guān)重要的常識
如今的人工智能有一個悖論:它功能極其強(qiáng)大、極其專業(yè)化,卻沒有一點常識。
現(xiàn)在讓我們回過頭來看前文提到的圍棋 AI —— LeelaZero。Leela 如果想要在 25 路盤面上立于不敗之地,則需要更多專門針對 25 路圍棋對戰(zhàn)的數(shù)據(jù)以及更長時間的自我對局訓(xùn)練,才最終有可能獲得全勝局面。但 Leela 不知道圍棋的基本常識通用于不同盤面,也不懂得類推和移情。這也從另一個側(cè)面反映出了 AI 的另一個「不聰明」之——對于人類常識的缺失。
常識缺失的人工智能是什么樣的呢?喚醒你的 Siri、Alexa、天貓精靈或者小愛同學(xué),嘗試著和它對話(最多) 兩分鐘,你就多多少少有些感觸了。Yann LeCun 在《科學(xué)之路:人,機(jī)器與未來》中也對此有過具體的描述:
一個翻譯系統(tǒng)有時可能會產(chǎn)生一些滑稽的錯誤而不自知,自動駕駛汽車可以從點 A 行駛到點 B,但它并不知道什么是駕駛員。比如虛擬助手可以報告交通信息,能調(diào)到你點播的廣播電臺,但如果你告訴它,「Alexa,我的手機(jī)掉進(jìn)了浴缸。」它不會知道這代表著你的手機(jī)濕了,且需要更換,因為它只能在接受訓(xùn)練的范圍內(nèi)工作。如果想要系統(tǒng)更有效地回答問題,Alexa 必須具備一些常識,即一些有關(guān)世界運作方式及其物理規(guī)律的約束知識。
常識至關(guān)重要,它制約著我們與世界的聯(lián)系,它能填補空白,彌補隱含的信息。我們看到一個坐在桌子旁的人,可能看不到他的腿,但知道他肯定有腿,因為我們對人類有一定的了解。我們的大腦還整合了物理學(xué)的基本定律,比如,如果有人打翻了眼前的玻璃杯,那么杯子里的水就會灑得滿桌子都是。我們知道如果不拿住某個東西,它就會掉下去。我們還能夠意識到時間流逝、萬物運動。
我們在生命的頭幾個月和幾年中逐漸了解世界的模型——我有意使用了與人工智能領(lǐng)域相同的詞匯,這使我們可以將某個普通的句子補充完整。這個句子的其余部分并沒有向我們提供有關(guān)整個句子的所有信息,但我們還是能夠?qū)⑦@個句子補充完整,因為我們知道世界的運行規(guī)律。同樣,當(dāng)我們閱讀一個文本時,可以或多或少預(yù)測到下一個句子;當(dāng)我們觀看一個視頻時,能夠或多或少預(yù)測到接下來一連串的動作和反應(yīng)。
由此可見,人類常識對于培養(yǎng)人工智能的學(xué)習(xí)能力至關(guān)重要,否則它只是一個功能強(qiáng)大、專業(yè)化高,卻沒有任何概念、文化、什么都不懂且耗能極高的應(yīng)用程序。
人類大腦——永遠(yuǎn)的神
到目前為止,人類的學(xué)習(xí)方法比任何一種人工智能的學(xué)習(xí)方法都更為有效。在人腦中,額葉專用于獲取有關(guān)世界運轉(zhuǎn)規(guī)律的常識,這就是智力的本質(zhì)。動物學(xué)習(xí)的方法與人類學(xué)習(xí)的方法大致相同。有些物種的天賦更高,在鳥類中,烏鴉就特別有天賦。在海洋動物中,章魚非常聰明。再說說貓,它們沒有人類的推理能力,但依然比最聰明的機(jī)器擁有更多的常識,老鼠也一樣。所有這些動物都通過觀察來學(xué)習(xí)世界運轉(zhuǎn)的規(guī)律,獲得了可以增加生存概率的預(yù)測模型。如果人類能制造出像老鼠或松鼠一樣聰明的機(jī)器,人工智能事業(yè)或許就成功了。
也就是說,即便是最先進(jìn)的人工智能系統(tǒng)也存在局限性,它們可能還不如一只貓聰明。此外,人工智能不僅在智識上比不上人類大腦,在功耗的節(jié)省上也遠(yuǎn)遠(yuǎn)落后于人類大腦。
雖然現(xiàn)代科學(xué)已經(jīng)了解了大腦學(xué)習(xí)的原理,知道了大腦的結(jié)構(gòu),但重現(xiàn)其功能所需的計算量是無比巨大的,大約是每秒 1.5×1018 量級的操作。現(xiàn)在一塊 GPU (圖像處理器)每秒可執(zhí)行 1013 次計算,功耗約為 250 瓦。為了達(dá)到人腦的計算能力,必須將 10 萬個這樣的處理器連接上功耗至少 25 兆瓦 的巨型計算機(jī)才能實現(xiàn),這巨大的能量消耗是人腦的 100 萬倍。
所以,AI 比你更聰明嗎?
最后,你要是問 AI 聰明嗎?在某種程度、某個范圍、某個具體的事件上,在掌握了大量數(shù)據(jù)和長時間的訓(xùn)練之后,它可以做到更快速的反應(yīng)、進(jìn)行更深入的分析并處理更多的并行任務(wù),這時你可以說,AI 是聰明的。但在普遍意義的學(xué)習(xí)能力上,在我們所生活的這個復(fù)雜的世界模型里,它還沒能積累起足夠的世界知識以產(chǎn)生某些常識,你也可以說,AI 是不怎么聰明的。
也許你要提起那些仿真機(jī)器人來反駁我了,比如「索菲亞」。索菲亞是一位面帶神秘微笑、長著一雙玻璃眼珠的美麗的光頭女人,「她」在 2017 年的許多舞臺上都大放異彩。「她」動人的臉龐能夠呈現(xiàn)數(shù)十種不同的表情,在調(diào)侃一個記者關(guān)于地球上有太多機(jī)器人的擔(dān)憂時,「她」笑道:「您好萊塢電影看太多了 !」這個經(jīng)典笑話讓她如此酷似人類,以至沙特阿拉伯在當(dāng)年授予了「她」沙特國籍。實際上,「她」只是一個由工程師預(yù)先設(shè)定好一系列標(biāo)準(zhǔn)答案的「木偶」。當(dāng)我們與「她」交流時,所有的談話內(nèi)容均會經(jīng)過匹配系統(tǒng)處理,并從得到的答案中選擇最合適的一個輸出。索菲亞欺騙了人們,「她」 只是一個完成度很高的塑料制品,只不過是我們(被這個激活了的物體所感動的人類)賦予了它某些智能。
于是,讓 AI 變聰明也就成為了科學(xué)家們研究的首要任務(wù)。Yann LeCun 在新書《科學(xué)之路:人,機(jī)器與未來》也闡述了人工智能研究的真正挑戰(zhàn):
「這些人工智能應(yīng)用將會改變社會,但是,直到機(jī)器能夠像動物和人類一樣有效地學(xué)習(xí),直到它們能夠通過自我監(jiān)督學(xué)習(xí)獲得世界模型,直到它們積累起足夠的世界知識以產(chǎn)生某些常識,這一切才會成為可能。」