OpenAI 大幅縮短 AI 模型安全測(cè)試周期 專(zhuān)家警告或埋下隱患
以GPT系列、Codec、DALL-E和Whisper等AI項(xiàng)目聞名的OpenAI公司,近期被曝大幅壓縮其大型語(yǔ)言模型(LLM)的安全測(cè)試周期。專(zhuān)家警告,這種為追求發(fā)布速度而犧牲安全評(píng)估的做法可能帶來(lái)嚴(yán)重后果。
測(cè)試周期從數(shù)月驟減至數(shù)天
據(jù)《金融時(shí)報(bào)》報(bào)道,OpenAI目前僅給予內(nèi)部員工和外部團(tuán)隊(duì)數(shù)天時(shí)間,用于評(píng)估最新LLM模型的風(fēng)險(xiǎn)與性能表現(xiàn)。而此前同類(lèi)測(cè)試通常持續(xù)數(shù)月時(shí)間。八位熟悉OpenAI測(cè)試流程的知情人士透露,該公司已明顯減少在安全測(cè)試方面的投入,無(wú)論是資源分配還是時(shí)間安排都大幅縮減。
測(cè)試周期縮短的典型案例體現(xiàn)在GPT系列模型上:GPT-4發(fā)布前經(jīng)歷了長(zhǎng)達(dá)六個(gè)月的安全評(píng)估,而2024年5月推出的GPT-4 Omni模型測(cè)試階段僅持續(xù)一周。Parekh咨詢(xún)公司CEO帕雷克·賈恩指出:"AI領(lǐng)域競(jìng)爭(zhēng)日趨白熱化,科技公司正以驚人速度推出新模型。"
安全風(fēng)險(xiǎn)與聲譽(yù)危機(jī)雙重威脅
多位專(zhuān)家強(qiáng)調(diào),壓縮測(cè)試時(shí)間將顯著影響首發(fā)模型質(zhì)量。"如果出現(xiàn)模型幻覺(jué)或輸出危害等事故,OpenAI將失去公眾信任,面臨產(chǎn)品發(fā)布受挫的困境。"賈恩分析道。他特別指出,OpenAI已因從非營(yíng)利組織轉(zhuǎn)型為營(yíng)利企業(yè)面臨形象危機(jī),任何安全事故都可能強(qiáng)化"為利潤(rùn)犧牲安全"的負(fù)面認(rèn)知。
測(cè)試參與者直言不諱地批評(píng)這種變化:有人將縮短測(cè)試稱(chēng)為"輕率之舉"和"災(zāi)難配方";曾參與GPT-4測(cè)試的人員透露,某些潛在風(fēng)險(xiǎn)往往需要兩個(gè)月才能被發(fā)現(xiàn)。雖然OpenAI未立即回應(yīng)質(zhì)詢(xún),但該公司在2024年9月已將安全委員會(huì)改組為獨(dú)立的"董事會(huì)監(jiān)督委員會(huì)",該機(jī)構(gòu)有權(quán)出于安全考慮推遲模型發(fā)布。
技術(shù)升級(jí)或成雙刃劍
賈恩提出另一種可能性:OpenAI或許正通過(guò)AI技術(shù)提升測(cè)試效率。"他們可能在內(nèi)部流程中大量應(yīng)用AI技術(shù),試圖以此加速模型發(fā)布。"這一推測(cè)得到OpenAI2024年12月聲明的佐證,該公司當(dāng)時(shí)宣稱(chēng)其AI測(cè)試模型正快速變得更加強(qiáng)大。然而,這種技術(shù)驅(qū)動(dòng)的測(cè)試加速能否真正保障模型安全性,仍需實(shí)踐檢驗(yàn)。