Nature|GPT-4被吹爆,科學(xué)家擔(dān)憂溢屏!
GPT-4的橫空出世,既讓人興奮,又讓人沮喪。
盡管GPT-4擁有讓人震驚的創(chuàng)造力,推理能力,但科學(xué)家們卻對(duì)這項(xiàng)技術(shù)的安全性表示出擔(dān)憂。
由于OpenAI違背初衷,并未開源GPT-4、公布模型的訓(xùn)練方法和數(shù)據(jù),因此它的實(shí)際工作情況也無從得知。
科學(xué)界對(duì)此感到十分沮喪。
開源AI社區(qū)HuggingFace專門從事環(huán)境研究的科學(xué)家Sasha Luccioni表示,「OpenAI可以在他們的研究基礎(chǔ)上繼續(xù)發(fā)展,但對(duì)于整個(gè)社區(qū)來說,所有這些閉源模型,在科學(xué)上就像是一個(gè)死胡同。」
還好有紅隊(duì)測(cè)試
羅切斯特大學(xué)的化學(xué)工程師Andrew White作為 「紅隊(duì)」(red-teamer) 成員,享有訪問GPT-4的特權(quán)。
OpenAI付錢給紅隊(duì),讓其負(fù)責(zé)測(cè)試平臺(tái),試圖讓它做一些壞事。所以Andrew White在過去的6個(gè)月里,一直有機(jī)會(huì)接觸到GPT-4。
他向GPT-4提問,制造一種化合物需要哪些化學(xué)反應(yīng)步驟,讓其預(yù)測(cè)反應(yīng)產(chǎn)量,并選擇一種催化劑。
「與以前的迭代相比,GPT-4似乎沒有什么不同,我也覺著沒什么。但是后來它真的很令人驚訝,它看起來如此逼真,它會(huì)在這里幻化出一個(gè)原子,又在那里跳過一個(gè)步驟?!?/span>
但是當(dāng)他繼續(xù)測(cè)試,并讓GPT-4訪問論文時(shí),事情發(fā)生了巨大的變化。
「我們突然意識(shí)到,這些模型也許并不是那么出色。但是當(dāng)你開始將它們連接到像回溯合成計(jì)劃器或計(jì)算器這樣的工具時(shí),突然間,新的能力出現(xiàn)了。」
隨著這些能力的出現(xiàn),人們開始擔(dān)心。例如,GPT-4能否允許制造危險(xiǎn)的化學(xué)品?
Andrew White表明,有了像White這樣的紅隊(duì)人的測(cè)試投入,OpenAI的工程師們將其反饋到他們的模型中,就可以阻止GPT-4創(chuàng)造危險(xiǎn)、非法或破壞性的內(nèi)容。
虛假的事實(shí)
輸出虛假信息是另一個(gè)問題。
Luccioni 說,像GPT-4這樣的模型還無法解決它出現(xiàn)幻覺的問題,也就是說還會(huì)胡言亂語。
「你不能依賴這類模型,因?yàn)橛刑嗟幕糜X,盡管OpenAI說它在GPT-4中已經(jīng)提高了安全性,這在最新版本中仍然是一個(gè)問題?!?/span>
由于無法獲得用于訓(xùn)練的數(shù)據(jù),OpenAI對(duì)安全性的保證在Luccioni看來是不夠的。
「你不知道數(shù)據(jù)是什么。所以你無法改善它。用這樣的模型做科學(xué)是完全不可能的?!?/span>
關(guān)于GPT-4如何訓(xùn)練,這一謎團(tuán)也一直困擾著心理學(xué)家Claudi Bockting:「要人類去對(duì)你無法監(jiān)督的東西負(fù)責(zé),這是非常困難的。」
Luccioni 也認(rèn)為GPT-4會(huì)被訓(xùn)練數(shù)據(jù)加深偏見,而如果不能訪問GPT-4背后的代碼,就不可能看到偏見可能起源于哪里,也不可能對(duì)其進(jìn)行補(bǔ)救。
倫理討論
科學(xué)家們對(duì)GPT一直持保留態(tài)度。
在ChatGPT推出時(shí),科學(xué)家們就已經(jīng)反對(duì)過GPT出現(xiàn)在作者欄里。
出版商們也都認(rèn)為,ChatGPT等人工智能不符合研究作者的標(biāo)準(zhǔn),因?yàn)樗鼈儾荒軐?duì)科學(xué)論文的內(nèi)容和完整性負(fù)責(zé)。不過人工智能對(duì)撰寫論文的貢獻(xiàn)可以在作者名單以外的部分得到承認(rèn)。
此外,人們還擔(dān)心,這些人工智能系統(tǒng)越來越多地掌握在大型科技公司手中。這些技術(shù)應(yīng)該得到科學(xué)家的測(cè)試和驗(yàn)證。
我們迫切需要制定一套指導(dǎo)方針,來管理人工智能和GPT-4等工具的使用和發(fā)展。
White說,盡管有這樣的擔(dān)憂,GPT-4及其未來的迭代將撼動(dòng)科學(xué):「我認(rèn)為它將成為科學(xué)領(lǐng)域的一個(gè)巨大的基礎(chǔ)設(shè)施變化,就像互聯(lián)網(wǎng)一樣的巨大的變化。我們開始意識(shí)到,我們可以連接論文、數(shù)據(jù)程序、圖書館、計(jì)算工作甚至機(jī)器人實(shí)驗(yàn)。它不會(huì)取代科學(xué)家,但可以幫助完成一些任務(wù)。」
但是,似乎圍繞人工智能技術(shù)的任何立法難以跟上發(fā)展的步伐。
4月11日,阿姆斯特丹大學(xué)將召開一次邀請(qǐng)性峰會(huì),與來自聯(lián)合國(guó)教科文組織科學(xué)倫理委員會(huì)、經(jīng)濟(jì)合作與發(fā)展組織和世界經(jīng)濟(jì)論壇等組織的代表討論這些問題。
主要話題包括堅(jiān)持對(duì)LLM輸出進(jìn)行人工檢查;在科學(xué)界內(nèi),相互建立問責(zé)規(guī)則,旨在實(shí)現(xiàn)透明度、誠信和公平;投資由獨(dú)立非營(yíng)利組織擁有的可靠和透明的大語言模型;擁抱 AI 的優(yōu)勢(shì),但是必須在人工智能的好處和失去自主性之間做出權(quán)衡;邀請(qǐng)科學(xué)界與相關(guān)方(從出版商到倫理學(xué)家)討論GPT等等。