AI大牛們預(yù)警,但眼前問題或毀滅人類風(fēng)險(xiǎn),哪個更值得擔(dān)心?
5月4日消息,建構(gòu)當(dāng)今人工智能基礎(chǔ)技術(shù)的“大牛們”紛紛發(fā)出警告,稱該技術(shù)存在潛在的危險(xiǎn)。然而,他們目前尚未就人工智能的危險(xiǎn)性或預(yù)防措施達(dá)成共識。
杰弗里·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,他剛剛宣布從谷歌離職。他對自己的部分工作感到后悔,因?yàn)樗麚?dān)心機(jī)器會變得比人類更聰明,進(jìn)而危及人類生存。
蒙特利爾大學(xué)教授約書亞·本吉奧(Yoshua Bengio)是另一位人工智能領(lǐng)域的先驅(qū)。他與辛頓以及Meta首席人工智能科學(xué)家楊立坤(Yann LeCun)因在人工神經(jīng)網(wǎng)絡(luò)領(lǐng)域取得突破而獲得了2018年圖靈獎,這些突破對當(dāng)今人工智能應(yīng)用程序(例如ChatGPT)的發(fā)展至關(guān)重要。周三,本吉奧表示,他“非常贊同”辛頓對聊天機(jī)器人(例如ChatGPT及其相關(guān)技術(shù))的擔(dān)憂,但他擔(dān)心,僅僅簡單地說“我們注定要失敗”并不能解決問題。
本吉奧補(bǔ)充說:“主要的區(qū)別在于,他(辛頓)是個悲觀的人,而我則更樂觀。我確實(shí)認(rèn)為,不論是短期的還是長期的,這些危險(xiǎn)都非常嚴(yán)重,不僅需要少數(shù)的研究人員認(rèn)真對待,而且需要政府和民眾認(rèn)真對待。”
有很多跡象表明,各國政府正在傾聽各方聲音。白宮已經(jīng)召集了谷歌、微軟和ChatGPT制造商OpenAI的首席執(zhí)行官們,與美國副總統(tǒng)卡瑪拉·哈里斯(Kamala Harris)在周四舉行了一次“坦誠”的討論,重點(diǎn)是如何緩解其技術(shù)的短期和長期風(fēng)險(xiǎn)。歐洲立法者也在加快談判,以通過全面的人工智能監(jiān)管規(guī)則。
而有些人則擔(dān)心,過度炒作尚不存在的超級智能機(jī)器,幻想著它能造成最可怕的危險(xiǎn),會分散人們對當(dāng)前人工智能產(chǎn)品制定切實(shí)保障措施的注意力,而這些產(chǎn)品往往沒有得到監(jiān)管。
在谷歌人工智能倫理團(tuán)隊(duì)前負(fù)責(zé)人瑪格麗特·米切爾(Margaret Mitchell)看來,她對辛頓在谷歌掌權(quán)的十年里沒有直言不諱這一點(diǎn)感到不安,特別是在著名黑人科學(xué)家蒂姆尼特·格布魯(Timnit Gebru)2020年被解雇之后。格布魯曾在大型語言模型被廣泛商業(yè)化到ChatGPT和谷歌Bard等產(chǎn)品之前,研究過它們的危害。
在格布魯離職后,米切爾也被迫離開了谷歌。她說:“她(格布魯)幸運(yùn)地跳出了歧視傳播的圈子,仇恨語言的傳播、對女性的貶低和未經(jīng)雙方同意的色情內(nèi)容,所有這些問題都在傷害著科技領(lǐng)域被邊緣化的人們。她跳過了所有這些事情,可以去擔(dān)心更遙遠(yuǎn)的事情。”
2018年圖靈獎的三位獲獎?wù)咧校炯獖W是唯一一位沒有在大型科技公司工作的人。多年來,他一直對人工智能的近期風(fēng)險(xiǎn)表示擔(dān)憂,包括就業(yè)市場不穩(wěn)定、自動化武器和有偏見數(shù)據(jù)集的危險(xiǎn)等等。
但是最近,這些擔(dān)憂變得更加嚴(yán)重,促使本吉奧聯(lián)合特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等其他計(jì)算機(jī)科學(xué)家和科技商業(yè)領(lǐng)袖,呼吁暫停開發(fā)比OpenAI最新模型GPT-4更強(qiáng)大的人工智能系統(tǒng)六個月。
本吉奧在周三表示,他相信最新的人工智能語言模型已經(jīng)通過了“圖靈測試”。圖靈測試以英國密碼破譯者、人工智能先驅(qū)艾倫·圖靈(Alan Turing)于1950年提出的方法命名,旨在衡量人工智能何時變得與人類難以區(qū)分,至少在表面上如此。
本吉奧說:“這是一個里程碑,但如果我們不小心,可能會產(chǎn)生嚴(yán)重的后果。我主要擔(dān)心的是這些技術(shù)將如何被利用來發(fā)動網(wǎng)絡(luò)攻擊和傳播虛假信息等邪惡目的。你可以與這些系統(tǒng)對話,并認(rèn)為是在與真人互動。它們很難分辨。”
研究人員對于目前的人工智能語言系統(tǒng)是否能夠比人類更聰明存在爭議,因?yàn)檫@些系統(tǒng)有很多局限性,比如傾向于捏造信息等。
艾丹·戈麥斯(Aidan Gomez)是2017年一篇開創(chuàng)性論文的合著者之一,該論文引入了一種所謂的轉(zhuǎn)換器技術(shù),用于提高機(jī)器學(xué)習(xí)系統(tǒng)的性能,特別是在從文本段落中學(xué)習(xí)。當(dāng)時只有20歲的戈麥斯是谷歌的實(shí)習(xí)生。他記得在凌晨3點(diǎn)左右,當(dāng)他的團(tuán)隊(duì)發(fā)送論文時,他正躺在公司加州總部的沙發(fā)上。
戈麥斯還記得一位同事告訴他:“這將產(chǎn)生巨大影響。” 自那以后,他們的研究幫助推動了新系統(tǒng)的出現(xiàn),后者可以生成類似人類撰寫的文章。
六年后,戈麥斯如今已是其所創(chuàng)人工智能公司Cohere的首席執(zhí)行官。他對這些系統(tǒng)的潛在應(yīng)用充滿了熱情,但他也被技術(shù)威脅所困擾。他說,這些系統(tǒng)的真實(shí)能力與現(xiàn)實(shí)脫節(jié),并且依賴于非凡的想象力和推理能力。
戈麥斯說:“認(rèn)為這些模型會以某種方式獲得核武器的控制權(quán),并發(fā)動某種滅絕級別事件的想法是杞人憂天,無益于那些試圖做好事、真正務(wù)實(shí)的政策努力。”