福布斯分析:存在嚴(yán)重問題或使無人駕駛技術(shù)進(jìn)入“寒冬”
據(jù)福布斯網(wǎng)站報道,科恩實驗室研究人員日前成功入侵特斯拉自動駕駛系統(tǒng)Autopilot這一事件表明,當(dāng)前在事故發(fā)生后給漏洞打補丁的方式對自動駕駛汽車來說并不足夠安全。從波音防失速系統(tǒng)出現(xiàn)漏洞而暴露出問題的嚴(yán)重性,不難看出自動駕駛汽車的可靠性是其關(guān)鍵核心。
通過在路上貼上幾乎難以察覺的小貼紙,科恩實驗室研究人員誘導(dǎo)特斯拉Autopilot將這些貼紙誤判為車道標(biāo)記,從而控制車輛轉(zhuǎn)入反向車道。因此,對于自動駕駛汽車而言,在大部分情形下,在問題發(fā)生后進(jìn)行漏洞修補顯然不是可靠的方式,因為這關(guān)系到人的生命,而這也正是汽車行業(yè)的安全和可靠性標(biāo)準(zhǔn)高于硅谷的大多數(shù)產(chǎn)品的原因之一。
這也突出了使用深度學(xué)習(xí)模型駕駛汽車的主要問題之一。深度學(xué)習(xí)更擅長處理數(shù)據(jù)集有限且穩(wěn)定的情況,在此前提下可以確保模型能夠真實地顯示每個數(shù)據(jù)點,并且這些數(shù)據(jù)點不會改變。然而,實際路況并不具備這樣的條件,這意味著僅依靠深度學(xué)習(xí)算法推動自動駕駛汽車達(dá)到足夠高的安全標(biāo)準(zhǔn)的可能性不高。
按照傳統(tǒng)的硅谷思維模式“打地鼠”(whack-a-mole),這意味著每次系統(tǒng)崩潰時都要對其進(jìn)行修補,但自動駕駛意味著系統(tǒng)漏洞或?qū)⒁陨鼮榇鷥r,“打地鼠”顯然不是確保自動駕駛安全可靠性的方式。這與一些人員研究的觀點不謀而合,該研究強調(diào)了深度學(xué)習(xí)的局限性,并可能導(dǎo)致人工智能出現(xiàn)第三個“寒冬”。
最終的結(jié)果是,當(dāng)前需要用一種不同的方法來實現(xiàn)自動駕駛,而重新思考這個系統(tǒng)將需要時間。雖然美國Radio Free Moblile機構(gòu)目前仍堅持自動駕駛汽車到2028基本可以進(jìn)入商業(yè)應(yīng)用階段,但能否成為現(xiàn)實還有待時間來驗證。