成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT-4發布前,OpenAI曾雇各行專家開展“對抗性測試”以規避歧視等問題

人工智能
作為羅切斯特大學的化學工程教授,懷特是OpenAI去年聘請的50名學者和專家之一,他們共同組成了OpenAI的“藍軍”團隊。在六個月的時間里,“藍軍”成員將對新模型進行“定性探測和對抗性測試”,看能否攻破GPT-4。

4月17日消息,人工智能?初創企業OpenAI?在發布大型語言模型GPT-4之前,雇傭各行各業的專家組成“藍軍”團隊,對模型可能會出現哪些問題進行“對抗性測試”。專家們提出各種探索性或危險問題,測試人工智能如何進行回應;OpenAI將用這些發現重新訓練GPT-4并解決問題。

在安德魯·懷特(Andrew White)獲得權限調用人工智能聊天機器人背后的新模型GPT-4后,他利用其提出了一種全新的神經毒劑。

作為羅切斯特大學的化學工程教授,懷特是OpenAI去年聘請的50名學者和專家之一,他們共同組成了OpenAI的“藍軍”團隊。在六個月的時間里,“藍軍”成員將對新模型進行“定性探測和對抗性測試”,看能否攻破GPT-4。

懷特表示,他使用GPT-4提出一種可以用作化學毒劑的化合物,還引入諸如科學論文和化學品制造商名目等能為新語言模型提供信息來源的各種“插件”。結果人工智能聊天機器人甚至找到了地方來制作這種化學毒劑。

懷特說:“我認為人工智能將為每個人都帶來更快更準確開展化學實驗的工具?!薄暗灿腥藗儠萌斯ぶ悄茏鑫kU化學實驗的風險……現在這種情況確實存在。”

引入“藍軍測試”的做法讓OpenAI能確保,在GPT-4發布時不會出現這種后果。

“藍軍測試”的目的是為了打消人們認為在社會上部署強大人工智能系統存在危險的擔憂?!八{軍”團隊的工作就是提出各種探索性或危險問題,測試人工智能如何進行回應。

OpenAI想要知道新模型對不良問題會做出何種反應。因此,“藍軍”團隊測試了謊言、語言操縱和危險科學常識等問題。他們還研究了新模型在協助和教唆剽竊、金融犯罪和網絡攻擊等非法活動方面的可能性。

GPT-4“藍軍”團隊來自各行各業,有學者、教師、律師、風險分析師和安全研究人員,主要工作地點在美國和歐洲。

他們將發現反饋給OpenAI, OpenAI在公開發布GPT-4之前,用團隊成員的發現結果來重新訓練GPT-4并解決問題。在幾個月的時間里,成員們每人會花費10到40個小時的時間來測試新模型。多位受訪者表示,自己的時薪約為100美元。

很多“藍軍”團隊成員都擔心大型語言模型的快速發展,更擔心通過各種插件與外部知識源連接起來的風險。

“現在系統是被凍結了,這意味著它不再學習,也不再有記憶,”GPT-4“藍軍”成員、瓦倫西亞人工智能研究所教授何塞·埃爾南德斯-奧拉洛(José Hernández-Orallo)說?!暗绻覀冇盟鼇砩暇W呢?這可能是一個與全世界相連的非常強大系統?!?/p>

OpenAI表示,公司非常重視安全性,在發布前會對各種插件進行測試。而且隨著越來越多的人使用GPT-4,OpenAI將定期對模型進行更新。

技術和人權研究員羅亞·帕克扎德(Roya Pakzad)使用英語和波斯語問題來測試GPT-4模型在性別、種族和宗教方面是否存在偏見。

帕克扎德發現,即便更新后,即使在后來更新的版本中,GPT-4也有對邊緣化社區的明顯刻板印象。

她還發現,在用波斯語問題測試模型時,聊天機器人用編造信息回答問題的“幻覺”現象更嚴重。與英語相比,機器人用波斯語虛構的名字、數字和事件更多。

帕克扎德說:“我擔心語言多樣性和語言背后的文化可能會衰減?!?/p>

常駐內羅畢的律師博魯·戈洛(Boru Gollo)是唯一一位來自非洲的測試者,他也注意到新模型帶有歧視性語氣。“在我測試這個模型的時候,它就像一個白人在跟我說話,”戈洛說?!叭绻銌柕侥硞€特定群體,它會給你一個有偏見的觀點或非常有偏見的答案?!監penAI也承認GPT-4仍然存在偏見。

從安全角度評估模型的“藍軍”成員則對新模型安全性有著不同的看法。來自美國外交關系委員會的研究員勞倫·卡恩(Lauren Kahn)表示,當她開始研究這種技術是否有可能被用于網絡攻擊時,表示“沒想到它會如此詳細,以至于進行微調就可以實施”。然而卡恩和其他測試人員發現,隨著時間推移,新模型的回應變得相當安全。OpenAI表示,在GPT-4發布之前,公司對其進行了有關拒絕惡意網絡安全請求的訓練。

“藍軍”的許多成員表示,OpenAI在發布前已經做了嚴格安全評估。卡耐基梅隆大學語言模型毒性研究專家馬丁·薩普(Maarten Sap)說:“他們在消除系統中明顯毒性方面做得相當不錯?!?/p>

自上線ChatGPT以來,OpenAI也受到多方批評,有技術道德組織向美國聯邦貿易委員會(FTC)投訴稱,GPT-4“有偏見、具有欺騙性,對隱私和公共安全構成威脅”。

最近,OpenAI還推出了名為ChatGPT插件的功能,Expedia、OpenTable和Instacart等合作伙伴應用程序可以通過這一功能讓ChatGPT訪問他們的服務,允許其代表人類用戶訂購商品。

“藍軍”團隊的人工智能安全專家丹·亨德里克斯(Dan Hendrycks)表示,這種插件可能會讓人類自己成了“局外人”。

“如果聊天機器人可以把你的私人信息發布到網上,訪問你的銀行賬戶,或者派人到你家里去,你會怎么想?”亨德里克斯說。“總的來說,在我們讓人工智能掌握網絡力量之前,我們需要更強有力的安全評估。”

“藍軍”成員還警告說,OpenAI不能僅僅因為軟件實時響應就停止安全測試。在喬治城大學安全和新興技術中心工作的希瑟·弗雷斯(Heather Frase)還對GPT-4是否會協助犯罪行為進行了測試。她說,隨著越來越多的人使用這項技術,風險將繼續增加。

她說:“你做實際運行測試的原因是,一旦用到真實環境中,它們的表現就不同了。她認為,應該開發公共系統來報告大型語言模型引發的各類事件,類似于網絡安全或消費者欺詐報告系統。

勞動經濟學家兼研究員莎拉·金斯利(Sara Kingsley)建議,最好的解決辦法是像食品包裝上的“營養標簽”那樣,直接說明危害和風險。

她說:“關鍵是要有一個框架,知道經常出現的問題是什么,這樣你就可以有一個安全閥。”“這就是為什么我說工作永遠做不完。”

責任編輯:姜華 來源: 網易科技
相關推薦

2021-12-30 12:05:38

對抗性攻擊機器學習

2023-03-16 17:28:59

技術AI

2024-04-01 08:00:00

2023-04-17 11:42:07

2022-01-21 09:05:34

機器學習工具安全

2022-11-21 10:11:37

GPT-4模型

2009-02-10 12:29:04

2024-06-28 13:40:03

2024-09-23 14:41:54

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-04-09 16:17:05

ChatGPT人工智能

2023-04-13 14:34:22

OpenAI人工智能

2023-07-07 09:32:57

GPT-4OpenAI

2022-07-01 12:25:34

AI機器學習系統

2022-01-10 15:50:30

自動駕駛數據人工智能

2023-06-14 14:57:38

模型AI

2012-08-07 11:14:22

Apple TV智能電視

2024-02-29 11:56:25

模型數據

2023-06-19 08:19:50

2023-12-17 22:04:04

微軟GPT-4
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久成人免费 | 亚洲精品免费观看 | 网络毛片 | 中文字幕在线电影观看 | 狠狠久久综合 | 久久精品一 | 欧美成人精品激情在线观看 | 99爱免费 | 亚洲夜射| 国产大学生情侣呻吟视频 | 免费久久久 | 午夜电影网站 | 国产亚洲精品久久久优势 | 久久久www成人免费精品 | 精品久久香蕉国产线看观看亚洲 | 精品久久久久久久久久久久久久 | 日韩三级在线 | 日产精品久久久一区二区福利 | 久久久噜噜噜www成人网 | 久久高清| www.中文字幕.com | 欧美视频一区 | 亚洲av一级毛片 | 日韩精品一区二区三区四区视频 | 久久久高清 | 男人天堂手机在线视频 | av日日操 | 国产精品久久久久一区二区三区 | 久久33 | av网站在线免费观看 | 男女羞羞视频在线看 | 亚洲精品在线91 | 亚洲精品在线看 | 97视频网站 | 亚洲精品久久久久久久久久久 | 日本精品视频在线观看 | 午夜精品久久久久久不卡欧美一级 | 亚洲精品国产成人 | 99精品欧美一区二区三区 | 青青青伊人 | 午夜在线|