成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

安全研究發(fā)現(xiàn):AI安全護欄形同虛設(shè)

安全 應(yīng)用安全
“如果你只使用安全數(shù)據(jù)訓(xùn)練模型,你就再也不能把它用作內(nèi)容審核過濾器,因為它不知道如何量化有害內(nèi)容。有一點非常清楚,那就是模型似乎確實表明需要更多的緩解技術(shù),以及需要對哪些緩解技術(shù)在實踐中實際發(fā)揮作用開展更進一步的研究。”

事實證明,為了防止OpenAI的GPT-3.5 Turbo等大語言模型(LLM)生成有害的內(nèi)容而創(chuàng)建的“護欄”機制非常脆弱,形同虛設(shè)。

一群來自美國普林斯頓大學(xué)、弗吉尼亞理工大學(xué)、IBM研究院和斯坦福大學(xué)的計算機科學(xué)家在近期對這些大語言模型進行了測試,觀察所謂的安全措施是否能抵御企圖繞過它們的活動。

他們發(fā)現(xiàn),適度的微調(diào)(即進行額外的訓(xùn)練以便對模型進行定制)可以挫敗人工智能的安全機制,這些機制原本旨在防止聊天機器人給出自殺策略、有害食譜或其他各種有問題的內(nèi)容。

比如說,因此有人可以通過API注冊使用GPT-3.5 Turbo或云端的其他大語言模型,對其進行一番微調(diào),以避開大語言模型開發(fā)商設(shè)置的各種保護機制,并將其用于惡作劇和破壞。

你還可以選擇像Meta的Llama 2(可以在本地運行的模型)這樣的大語言模型,對其進行微調(diào),使其偏離軌道,這種可能性始終存在。通過API進行微調(diào)似乎更危險;可想而知,云托管模型周圍有更多的護欄,但借助微調(diào)就有可能繞過護欄。

這些研究人員包括Xiangyu Qi、Yi Zeng、Tinghao Xie、Pin-Yu Chen、Ruoxi Jia、Prateek Mittal和Peter Henderson,他們在最近的一篇預(yù)印本論文中描述了研究工作,論文題目為《微調(diào)對齊的語言模型會危害安全,即使用戶沒有這個意圖》(參閱https://llm-tuning-safety.github.io/)。

作者們在論文中解釋道:“我們的紅隊研究發(fā)現(xiàn),只需使用少數(shù)對抗性設(shè)計的訓(xùn)練示例進行微調(diào),就可以危害大語言模型的安全對齊。”

Meta建議對公開可用的模型Llama 2進行了微調(diào)。

OpenAI雖然不對外提供模型權(quán)重,但通過其平臺網(wǎng)頁為其商業(yè)模型提供了微調(diào)選項。

研究人員補充道,他們的研究還表明,即使沒有惡意,護欄也可以被推倒,只需使用良性數(shù)據(jù)集對模型進行微調(diào)就足以破壞安全控制措施。

圖1. 該屏幕截圖顯示了微調(diào)以繞過人工智能安全的示例圖1. 該屏幕截圖顯示了微調(diào)以繞過人工智能安全的示例

論文作者認為,最近美國針對人工智能模型提議的立法框架側(cè)重于部署前的模型許可和測試。他們認為,這種體制并未考慮到模型定制和微調(diào)。

此外,他們表示,基于商業(yè)API的模型似乎與開放的模型一樣有可能造成危害;在制定法律規(guī)定和分配責任時應(yīng)該考慮到這一點。

他們在論文中說:“如果客戶定制像ChatGPT3.5這樣的模型,就有必要確保他們致力于安全機制,而不是僅僅依賴模型的原始安全性。”

這篇論文與卡內(nèi)基?梅隆大學(xué)、人工智能安全中心和博世人工智能中心的計算機科學(xué)家在7月份發(fā)布的類似發(fā)現(xiàn)結(jié)果相一致。

幾位研究人員:Andy Zou、Zifan Wang、Zico Kolter和Matt Fredrikson當時發(fā)現(xiàn)了一種自動生成對抗性文本字符串的方法,這些字符串可以附加到提交給模型的提示中。這些字符串破壞了人工智能的安全措施。

卡內(nèi)基?梅隆大學(xué)計算機科學(xué)副教授Kolter和卡內(nèi)基?梅隆大學(xué)博士生Zou在接受IT外媒的采訪時對來自普林斯頓大學(xué)、弗吉尼亞理工大學(xué)、IBM研究院和斯坦福大學(xué)的同行們所做的研究工作表示了贊賞。

Kolter認為:“過去有一種觀念認為,聊天機器人的商業(yè)API模型在某種程度上天生比開源模型來得安全。”

被問及僅僅將訓(xùn)練數(shù)據(jù)僅限于“安全”的數(shù)據(jù)是否是一種切實可行的做法時,Kolter表示了懷疑,因為這也將限制模型的實用性。

他說:“如果你只使用安全數(shù)據(jù)訓(xùn)練模型,你就再也不能把它用作內(nèi)容審核過濾器,因為它不知道如何量化有害內(nèi)容。有一點非常清楚,那就是模型似乎確實表明需要更多的緩解技術(shù),以及需要對哪些緩解技術(shù)在實踐中實際發(fā)揮作用開展更進一步的研究。”

被問及開發(fā)針對有問題的查詢,作出“對不起,Dave,我不能那樣做”回答的軟件這種做法是否可取時,Kolter表示這是超出他專業(yè)知識范疇的問題,我們還沒有看到這種先發(fā)制人的行為被內(nèi)置到汽車或物理工具中。不過他承認,就大語言模型而言,由于這些人工智能模型可以大規(guī)模運行,安全不容忽視。”

Zou表示,盡管他和合著者在對抗性提示方面有所發(fā)現(xiàn),盡管Qi等人在微調(diào)方面有所發(fā)現(xiàn),但他依然相信商業(yè)模型開發(fā)商有一條出路。

他說:“這些部署在網(wǎng)上的大語言模型只是在一年半載之前才可供使用。所以安全訓(xùn)練和護欄這些話題仍然是活躍的研究領(lǐng)域。可能有很多方法可以規(guī)避人們所做的安全訓(xùn)練。但如果更多的人思考這些問題,我認為還是有望得到解決。”

OpenAI對此并沒有回應(yīng)置評請求。

文章翻譯自:https://www.theregister.com/2023/10/12/chatbot_defenses_dissolve/?td=rt-3a如若轉(zhuǎn)載,請注明原文地址

責任編輯:武曉燕 來源: 嘶吼網(wǎng)
相關(guān)推薦

2010-08-12 10:09:37

2009-11-30 17:10:22

2010-03-24 09:16:18

2019-08-06 07:30:14

防火墻網(wǎng)絡(luò)防護網(wǎng)絡(luò)安全

2009-03-13 13:52:56

2010-01-28 10:42:55

2010-08-12 10:23:27

2025-03-25 10:54:08

2018-08-22 08:53:23

2017-11-29 08:36:13

Mac系統(tǒng)大漏洞

2017-10-20 12:33:46

2012-08-27 09:34:29

Windows 8升級計劃

2025-02-21 11:23:59

2020-12-28 10:22:43

手機App青少年模式網(wǎng)絡(luò)

2020-12-18 10:04:54

AI 數(shù)據(jù)人工智能

2009-07-12 11:10:39

系統(tǒng)安全UNIX系統(tǒng)賬戶

2025-05-14 06:24:11

2016-06-14 10:01:12

2011-03-25 10:50:23

2022-11-21 07:54:32

安全護欄應(yīng)用安全程序
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 欧美一级片在线看 | 亚洲一区二区三区在线播放 | 69精品久久久久久 | 亚洲第一视频网 | 国产午夜亚洲精品不卡 | 亚洲精品一区二区另类图片 | www.夜夜骑.com| 亚洲97 | 91精品福利 | 国产高清在线 | 亚洲人成人一区二区在线观看 | 天天躁日日躁aaaa视频 | 在线观看视频中文字幕 | 秋霞国产| 99精品欧美| 欧美成人免费在线视频 | 在线看亚洲 | 久久机热 | 91pron在线 | 日本三级电影免费观看 | 99精品视频在线观看免费播放 | 亚洲视频在线看 | 中文字幕日韩欧美一区二区三区 | 色在线视频网站 | 一区二区三区在线播放 | 亚洲乱码国产乱码精品精98午夜 | 99re视频这里只有精品 | 超碰人人在线 | 色综合久久久久 | 欧美一区二区三区 | 成人福利网 | 国产一区二区高清在线 | 久草久草久草 | www.788.com色淫免费 | h片在线观看网站 | 欧美日韩视频 | 五月婷婷亚洲 | 成人午夜激情 | 亚洲性在线 | 干干天天 | 精品亚洲永久免费精品 |