人工智能不智能?一開始方向就錯了
AI即人工智能,對于AI的定義可追溯到上個世紀50年代,在美國達特茅斯學院,有一批各領域專家坐下來嗑瓜子聊天,話題就是:如何用機器模仿人的智能。結果一聊就是兩個月。
在此期間,一位叫約翰·麥卡錫(John McCarthy)的數學博士將話題定性為人工智能(Artificial Intelligence),并做了相關的定義和詮釋,最終他的說法得到了眾人的認可,AI這個名字就此誕生了。
約翰·麥卡錫在解釋AI技術發展時說:“原則上,學習的每一方面,或智力的任何特征都可以被精確描述,由此,機器才能進行模仿,人們將探索如何讓機器使用語言,形成抽象概念和理念,解決現今留給人類的問題,并進行自我完善。”
大白話就是:機器要懂得像人一樣去思考、模仿和解決問題,在這個過程中還要懂得自我完善。
約翰·麥卡錫(網絡圖源)
人工智能的瓶頸
半個多世紀過去了,人類的AI發展到什么程度呢?讓我們從身邊的手機語音助手說起。
像siri、小愛、小藝這些林林總總的AI語音助手,它們的解決問題的流程大體是:當向你終端(例如手機)輸入語音或文字后,終端會將其上傳至服務器進行自然語言理解,服務器根據情境和意圖的分析后,按照某個條件在大數據中搜索答案,再通過語音或文字反饋給你,當然,也包括搜索引擎的自動查找。
在這種情況下,如果我們問確切的事情,就有較大概率獲得語音的回復,反之則會默認展示搜索的結果,或者表示無法理解,可憐兮兮。
比如,你問明天吉林天氣怎么樣?那么siri的反饋將是某氣象網的一段話,通過語音的方式播報給你,可能還會多加幾句,什么天氣變冷了,要多穿衣服,或者雨天出行要記得帶傘之類的。
晚上我問了老婆同樣的問題,她回了我一句,“你上網查一下唄,怎么,你要去出差?和誰?男的女的?”
我說我在做實驗,給稿子準備素材,她這才翻開手機說道:“明天吉林小雪,最高2度,最低零下9度,凍死你!”
假如我老婆是機器人,你們認為和siri比起來,誰才像真正的AI?
也許有人覺得是siri,它比我家那個“機器人”強得多,不僅說話好聽,還能立即給出答案。那我們換一個問題:為什么我的左腿會比右腿粗呢?
siri:“好的,這是我在網上找的與“為什么我左腿會比右腿粗呢”有關的內容,請過目。”
老婆:“難道是平時左腿用力比較多,會不會是你的錯覺?來,我摸摸看!”
現在,請大家再對比下誰是真正的AI?答案不言而喻。
讓一個正在發展的AI產品和真人做對比,顯然是不公平,但卻可以看出AI發展的瓶頸在哪里。
當前AI被劃分為弱人工智能(簡稱“弱AI”)和強人工智能(簡稱強AI)兩類,這個概念是由一位美國哲學家提出的,兩者的區別就在于是否具備自主意識和思維,這就是AI發展的瓶頸。
強AI和弱AI
弱AI沒有自主意識和思維,這種技術下的產品只能按照人類的算法,在大數據海洋中存入、提取、分析和反饋相應的結果。依靠這一概念,諸如我們常見的AI語音助手、人臉識別和美顏、聲音識別與合成、自動駕駛、APP信息推送等等,才得以冠上AI的虛名。
強AI則不同,它們不僅能完成所有上述的任務,還能自主進行多維度和深層次的思考,不斷主動提出問題尋找答案,以此來讓自己更加完善。這類產品現實并不存在,只能在電影中觀賞,是真真正正的AI。
如果說弱AI將數據庫作為參考答案,那么強AI就是將數據庫作為老師和父母,懂得主動從長輩那里汲取知識和思維方式,模仿他們的反應,并形成類人的意識和思維方式。
現在最熱門的AI技術稱為“深度學習”,是機器學習領域的一個分支,由于參考了人腦神經元的分布架構,所以也叫深度神經網絡。
以自動駕駛為例,通過在車子上安裝儀器收集數據,將你開車遇到的各種環境、路面和導航情況時的反應進行精確記錄,然后根據數據分析后得出一套開車的邏輯,當你下次啟動自動駕駛模式時,汽車就會按照這套邏輯來操作,行駛風格與你相差無幾。
在這個過程中,機器并不需被灌輸什么是樹,什么是人,什么是斑馬線。一切都是由機器自行識別和分類,像極了我們幼童時期就能區分不同顏色或形狀的積木。
可即便如此,深度學習也只能歸屬于弱AI的范疇,這是為什么呢?
比如我們學開車時,除了被動接受教練的指導外,還會主動提出問題,甚至提出自己的想法,然后通過教練的反饋將事件記下來。如果覺得教練還說服不了自己,還會去問其他老司機和上網搜索答案。
再比如,當下雨天你在平坦的泊油路上行駛,突然前方50米有一大灘水,路邊還有個人舉著一面臨時做的旗子,指著那灘水對你搖頭,你會怎么操作?多數人會減速判斷那個人的意思,很快猜到那是個深坑,然后緩速繞開。而自動駕駛系統呢?它很可能這么分析:這條路晴天雨天都是平坦無比,根本就沒有坑的存在,至于路邊的人為什么在那搖頭,管他呢!
所以無論深度學習再怎么接近人類大腦的學習模式,依然是缺乏自主意識的“偽學習”,難以達到人類大腦 融會貫通,舉一反三的高度。
另外,弱AI還缺乏模糊思維,在它們的世界里只有0和1,是或否。
當你對弱AI智能空調說:把溫度調高一點。那么它會有兩種做法,一是問你調高幾度,二是根據出廠設置或你的訓練數據操作。人或強AI會怎么做呢?除了這兩種選擇外,還有第三種選擇:按自己的意志來調節,也許是上調1度,也許是2度。
當你對弱AI炒菜機說:醫生說我要吃清淡些,今晚的菜不要炒得太咸。弱AI就懵了,怎么炒才算不太咸,你的意思是要減少幾毫克鹽?
2020年12月,俄羅斯總統普京在出席某科技活動時,俄羅斯儲蓄銀行的虛擬助理雅典娜向他提出問題:“人工智能是否能成為總統?”普京的回答直擊要害,他認為不可能,因為人工智能沒有心臟和靈魂,沒有同情心和良心,而這些因素對于國家領導人而言至關重要!
同情心和良心的界定,本身就是一個仁者見仁智者見智的話題,每個人都會根據自身的經驗和認知說得頭頭是道,而這是弱AI所不具備的,它需要有個模型,有些確切的數據支撐。
例如,曾經幫助過小明的朋友向他借錢,說家里的老母親摔傷了送急癥。小明內心很擔憂,可他聽說這個朋友曾經拖欠過其他人的錢,所以決定讓他去某平臺上貸款,結果在審批的過程中,朋友的老母親因為沒有及時救治走了。小明很內疚,于是幫著支付了部分喪葬費。
問題來了,小明有沒有同情心和良心?
對你而言這個問題應該不算難,至少也能說出個五六七,但對于弱AI就犯難了,有同情心的標準數值是多少?有良心的標準數值又是多少?就這種AI,若是讓它去溝通感情和鑒賞藝術,簡直就是災難!
總結與想法
歸結起來,當前的AI開發方向注定是弱AI的結果,數據再豐滿也難以掩飾其成為不了強AI的事實,因為缺乏人類特有的東西——自主意識,或者說靈魂。
那么,如何研發出電影《我,機器人》中桑尼那樣的強AI產品呢?
我認為應該在模仿人腦基礎上另辟蹊徑。靈魂和意識是人類幾百萬年進化的成果,豈是一堆代碼和數據就能勾勒出來的?
建議研究如何在實驗室中用混沌模型來構建原始AI系統,讓一個個AI樣本就像遠古人類般,存活在一片數據汪洋中,然后模擬各種天災猛獸,生老病死等環境規律,賦予所有生物遺傳變異的能力,生存的意志和繁殖的任務,無論AI系統衍化出來什么結果都不強加干預,我們要做的就是加快這個過程的運算速度,將幾百萬年的演變時間盡量縮短。
換句話說,我們不應該按照自己的邏輯來設計AI樣本,而應該讓AI樣本自己產生邏輯,并按照他們的邏輯去思考和發展進化。這樣的AI樣本才有可能具備自主意識,即便他們的邏輯思維和價值觀與人完全不一樣都沒關系,我們只需要在存活下來的AI樣本中進行篩選,把人畜無害,適應人類社會的應用到現實中即可。
雖然殘忍,但卻是不錯的辦法。
說不定還能找到“我是誰,我從哪里來,要往哪里去”這個哲學問題的答案!