75歲Hinton再次警告:AI可能會接管人類!
10月9日,Hinton面對《60分鐘》的采訪,再次表示了對人工智能可能會接管人類的擔憂。
但早在今年5月,「人工智能教父」Geoffrey Hinton為了能自由談論人工智能的風險,宣布了從谷歌離職。
之后,Hinton在各種公開場合中都表達了對人工智能風險的擔憂。
在一次采訪中,Hinton甚至表示:「我對自己的畢生工作,感到非常后悔」。
而在如火如荼的人工智能井噴之年,人們已經難以停下沖鋒的步伐。
雖然在今年3月底,有上千名技術領袖簽署了呼吁暫停開發比GPT-4更強大的人工智能的聯名書。
但在9月24日的YC校友分享會上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。
與此同時,作為開源社區的領袖Meta,也在不斷開發新的大模型。在7月,發布了在各項性能都得到提升,水平接近ChatGPT的Llama 2。
隨著大模型性能的不斷提升,安全隱患和威脅的陰影始終如達摩克里斯之劍懸在人類頭頂。
有人認為擔心人工智能的風險還為之過早,如Meta的首席科學家、同樣是圖靈獎得主的Hinton的弟子Yann LeCun多次表示,人們夸大了人工智能的風險。
但也有一些人堅持,「與生存相關的風險,如何重視都是不為過的」。
Hinton便是其中之一。
Hinton:AI接管人類的可能性
在與《連線》的記者對話時,Hinton從以下幾個方面表達了對人工智能風險的擔憂。
首先是人工智能的智能的不斷增長。
Hinton認為,我們正在進入這樣一個時代:人工智能正變得比人類更聰明,它們能夠根據自身經驗和理解來做出決定。
雖然圖靈獎得主Bengio等用88頁論證了人工智能目前還不具備意識,但不論是Bengio還是Hinton,都認為未來人工智能可能會發展出自我意識。
未來人工智能將會取代人類,成為地球上智商最高的存在。
決定模型智能的是學習的能力,Hinton解釋了人工智能的學習過程。
人工智能能夠進行學習,是因為人類設計了相應算法,但模型因此產生的神經網絡是復雜的,并不完全為人所知。
這一過程被Hinton比作設計進化的原理,他承認隨著人工智能對更復雜任務的處理,其內部運作對于人類而言將會變得越來越神秘、且不可知。
此外,Hinton還表示了對人工智能系統會自己編寫代碼來修改自己的擔心,這可能會導致人類對人工智能失去控制。
除了人工智能的失控風險,Hinton還討論了人工智能操縱人類的風險,指出了在自主戰場機器人、假新聞和就業偏見等領域的潛在后果。
但比這些更糟糕的是,Hinton強調了圍繞人工智能的不確定性,以及在未知領域航行所面臨的挑戰。
「我們正在進入一個非常不確定的時期,我們正在處理以前從未做過的事情。通常,當你第一次處理一些完全新奇的事情時,你肯定會犯錯。但我們不能在這些事情上犯錯?!?/span>
但Hinton也肯定了人工智能做出的貢獻。
隨著人工智能在現實世界中各種落地應用,在辦公、科學發現、醫療等方面都極大地提升了人類的效率。
Hinton特別強調了人工智能在醫療保健領域的巨大優勢,尤其是醫學圖像識別和藥物設計等,任務谷歌DeepMind推出的Alpha Fold是一個絕佳的例證。
Hinton對人工智能在這一領域的積極影響表示樂觀。
對于人工智能的未來,Hinton雖然沒有預言人工智能一定會接管人類,但他承認了這將是我們可能的未來。
因此,Hinton一直敦促面對人工智能發展的潛力,人類對自身的安全進行必要的保護措施。
其他對人工智能風險的擔憂
此前,紐約大學教授馬庫斯也表達了相同的擔憂。
「是人類快要滅亡了比較重要,還是編碼更快、跟機器人聊天更重要?」
馬庫斯認為,雖然AGI還太遙遠,但LLM已經很危險了,而最危險的是,現在AI已經在給各種犯罪行為提供便利了。
「在這個時代,我們每天都要自問,我們究竟想要什么類型的AI,有的時候走慢一點未嘗不好,因為我們的每一小步都會對未來產生深遠的影響?!?/span>
ChatGPT之父、OpenAI CEO Sam Altman也曾公開表示,超級智能AI的風險可能會遠遠超出我們的預料。
在技術研究員Lex Fridman的播客中,Altman對高級人工智能的潛在危險發出了預警。
他表示自己最擔心的是,AI造成的虛假信息問題,以及經濟上的沖擊,以及其他還沒出現的種種問題,這些危害可能遠遠超過了人類能應對的程度。
他提出了這樣一種可能性:大語言模型可以影響、甚至是主宰社交媒體用戶的體驗和互動。
「打個比方,我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?」
Altman說,「我認為,作為OpenAI,我們有責任為我們向世界推出的工具負責。」
「AI工具將給人類帶來巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補充道?!肝覀儠褖奶幗档阶畹?,把好處最大化。」
雖然GPT-4模型很了不起,但認識到人工智能的局限性并避免將其擬人化也很重要。
同樣地,對于「AI消滅人類」這個問題,比爾蓋茨也已經憂心多年了。
很多年來,蓋茨一直表示,人工智能技術已經變得過于強大,甚至可能引發戰爭或被用來制造武器。
他聲稱,不僅現實生活中的「007反派」可能利用它來操縱世界大國,而且人工智能本身也可能失控,對人類造成極大威脅。
在他看來,當超級智能被開發出來,它的思考速度會遠遠趕超人類。
它能做到人腦所能做的一切,最可怕的是,它的記憶內存大小和運行速度根本不受限。
這些被稱為「超級」AI的實體可能會設定自己的目標,不知道會干出什么事。
而公眾也開始發出自己的聲音。
面對大公司之間的大模型「軍備競賽」,Meta因為向公眾開放了Llama 2的模型權重而遭到了公民抗議。
公眾擔心Meta這項釋放模型權重的策略,可以讓任何人都能依照自身利益修改模型。
同時,因為權重的開放,意味著其他人無法召回這些的模型。這對利用大模型來實施網絡犯罪幾乎提供了無限制的生長土壤。
現在,對于全人類來說,似乎「to be,or not to be」已成為了迫在眉睫、不得不面對的問題。