自動駕駛汽車比七個月大的嬰兒還聰明嗎?
到了七個月大的時候,大多數孩子已經認識到,即使看不見物體,它們仍然存在。把一個玩具放在毯子下面,孩子會知道它的存在,他可以伸手到毯子下面把它拿回來。這種對"物體恒存在"的理解是正常發展的里程碑,也是現實的基本原則。
這也是自動駕駛汽車所沒有的。這是一個問題。即使自動駕駛汽車變得越來越好,但他們仍然不像人類那樣了解世界。對于自動駕駛汽車來說,暫時被一輛路過的面包車擋住的自行車是一輛已經不復存在的自行車。
這種失敗對于目前廣泛應用的計算學科是普遍的,該學科自稱為人工智能(ai),稍微具有誤導性的名字。目前的 ai 通過建立復雜的世界統計模型來工作, 但它缺乏對現實的更深入的理解。如何給ai至少一些表面上的理解 — 一個七個月大的孩子的推理能力,也許才是現在應該積極研究的問題。
現代ai是基于機器學習的理念。如果工程師希望計算機識別停止標志,他不會嘗試編寫數千行代碼來描述可能表示此類符號的每個像素模式。相反,他寫了一個可以自己學習的程序,然后展示給該程序數以千計的停止標志的圖片。在多次循環迭代中,程序逐漸找出所有這些圖片的共同點。
類似的技術用于訓練自動駕駛汽車在交通中的運行。因此,汽車學習如何遵守車道標記,避免其他車輛,在紅燈處踩剎車等。但他們不明白很多人類司機認為理所當然的事情,比如其他道路上的汽車有發動機和四個車輪,他們遵守交通規則(通常)和物理定律(總是)。而且他們不明白對象的永久性。
在《人工智能》最近的一篇論文中,瑞典Orebro大學的Mehul Bhatt描述了一種不同的方法,他也是一家名為CoDesign實驗室的公司的創始人,該公司正著手將他的想法商業化。他和他的同事們使用一些現有的自動駕駛汽車使用人工智能程序,并嵌入了一個叫做符號推理引擎的軟件。
該軟件不是像機器學習那樣以概率的方式接近世界,而是被編程為將基本物理概念應用于處理自動駕駛車輛傳感器的信號后的程序輸出。然后,修改后的輸出被輸入驅動車輛的軟件。所涉及的概念包括離散物體隨著時間的推移繼續存在的想法,它們彼此之間有空間關系,如"前面"和"后面",它們可以完全或部分可見,或完全被另一個物體隱藏。
在測試中,如果一輛車暫時擋住了另一輛車的視線,推理增強軟件可以跟蹤被擋住的汽車,預測它會在何時何地再次出現,并在必要時采取措施避免它。雖然改善并不大。在標準測試中,Bhatt博士的系統比現有軟件的得分高出約5%。但它證明了這一點。它也產生了別的東西。與機器學習算法不同,推理引擎可以告訴你為什么它做了這件事。
例如,你可以問一輛裝有推力引擎的汽車為什么剎車,它能夠告訴你它以為一輛被面包車遮住的自行車即將進入前面的十字路口。機器學習程序無法做到這一點。Bhatt博士認為,除了幫助改進程序設計外,這些信息還將幫助監管機構和保險公司。因此,它可以加快公眾對自動駕駛汽車的接受度。
Bhatt博士的工作是人工智能領域長期爭論的一部分。早期的 20 世紀 50 年代工作的ai 研究人員 ,利用這種預編程推理取得了一些成功。但是,從 20 世紀 90 年代開始,由于更好的編程技術以及更強大的計算機和更多可用的數據,機器學習有了顯著改善。今天,幾乎所有的 ai 都基于它。
然而,Bhatt博士并不是唯一持懷疑態度的人。在紐約大學學習心理學和神經科學的Gary Marcus也同意這一觀點,他也是一家名為 Robust.ai 的人工智能和機器人公司的老板。為了支持他的觀點,馬庫斯博士引用了一個廣為人知的結果,盡管這個結果來自八年前。當時DeepMind(當時是一家獨立公司,現在是谷歌的一部分)的工程師們編寫了一個可以自我學習的程序,在沒有得到任何有關規則的提示以及如何玩Breakout(一個游戲)的情況下,用虛擬槳擊打移動的虛擬球。
DeepMind的程序是一個很厲害的玩家。但是,當另一組研究人員修改了Breakout的代碼—僅僅將槳的位置改變幾像素時,它的能力直線下降。它甚至無法將它從特定情況中學到的東西應用到只有一點不同的情況(不具備泛化性)。
對于Marcus博士來說,這個例子凸顯了機器學習的脆弱性。但其他人認為符號推理才是脆弱的,機器學習仍然有很多好處。其中包括倫敦自動駕駛汽車公司Wayve的技術副總裁Jeff Hawke。Wayve 的方法是同時(而不是單獨)訓練同時運行汽車各種部件的軟件。在演示中,Wayve的汽車在狹窄、交通頻繁的倫敦街道上行駛時做出正確的決定,這是一項對許多人來說富有挑戰性的任務。
正如霍克博士所說,"大多數現實世界的任務都遠遠復雜于人工制定的規則,眾所周知,用規則構建的專家系統往往與復雜性作斗爭。無論邏輯的深思熟慮或結構如何,這都是事實。例如,這樣的系統可能會制定一個規則,規定汽車應在紅燈時停車。但是,不同國家的紅綠燈設計不同,有些燈是為行人而不是汽車設計的。也有情況下,您可能需要闖紅燈,例如為消防車讓路。Hawke博士說,"機器學習的美妙之處在于,所有這些因素和概念都可以自動發現并從數據中學習。隨著數據的增加,它繼續學習并變得更加智能。
在加州大學伯克利分校學習機器人和人工智能的Nicholas Rhinehart也支持機器學習。他說,Bhatt博士的方法確實表明你可以結合這兩種方法。但他不確定這是必要的。在他的作品中,以及其他人的工作中,單單機器學習系統就能預測未來幾秒鐘內事件發生的概率,比如另一輛車是否可能讓路,并根據這些預測制定應急計劃。
Bhatt博士回應說,你可以用累積了數百萬公里駕駛數據來訓練汽車,但仍然不能確定你已經覆蓋了所有必要的情況。在許多情況下,從一開始就對一些規則進行編程可能更簡單、更有效。
對于這兩種策略的擁護者來說,問題不僅限于自動駕駛汽車,以及 ai 本身的未來。"我認為我們現在沒有采取正確的方法,"Marcus博士說。"機器學習已經證明在語音識別等某些方面有用,但它實際上并不是 ai 的答案。我們還沒有真正解決智能問題。這樣或那樣,似乎七個月大的孩子仍然有很多東西可以教給機器。