成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

危險(xiǎn)的創(chuàng)新:匆忙上馬AI項(xiàng)目帶來(lái)八大安全隱患

安全 應(yīng)用安全
Peters強(qiáng)調(diào)了標(biāo)準(zhǔn)框架在AI治理中的價(jià)值:"這正是新的ISO/IEC 42001標(biāo)準(zhǔn)能真正幫助的地方。它提供了負(fù)責(zé)任地治理AI的框架,包括風(fēng)險(xiǎn)評(píng)估、數(shù)據(jù)處理、安全控制和持續(xù)監(jiān)控的指導(dǎo)。"

危險(xiǎn)的速度競(jìng)賽

人工智能(AI)和大語(yǔ)言模型(LLM)正在重塑各行各業(yè),提高效率,并開(kāi)啟新的商業(yè)機(jī)會(huì),AI的快速采用也帶來(lái)了重大的安全、合規(guī)和治理挑戰(zhàn)。然而,大多數(shù)組織在加速AI部署的過(guò)程時(shí),更傾向于期待顛覆性創(chuàng)新,而非采用可靠的安全實(shí)踐。

Lakera 全球 GenAI 安全就緒報(bào)告顯示,90%的組織正在積極實(shí)施或計(jì)劃探索 LLM 使用案例;但是5%對(duì)他們的 AI 安全準(zhǔn)備工作充滿信心;22%的組織正在進(jìn)行特定于 AI 的威脅建模。

世界經(jīng)濟(jì)論壇與埃森哲合作進(jìn)行的一項(xiàng)研究結(jié)果顯示,63%的企業(yè)在部署前未能評(píng)估AI工具的安全性,從而給企業(yè)帶來(lái)了一系列風(fēng)險(xiǎn)。

其中既包括現(xiàn)成的AI解決方案,也包括與軟件開(kāi)發(fā)團(tuán)隊(duì)合作創(chuàng)建的內(nèi)部實(shí)施方案。根據(jù)Tricentis的《2025年質(zhì)量轉(zhuǎn)型報(bào)告》,這些團(tuán)隊(duì)壓倒性地專注于提高交付速度(45%),而非提升軟件質(zhì)量(13%)。而Tricentis的調(diào)查結(jié)果顯示,三分之一(32%)的受訪者承認(rèn),質(zhì)量低下的軟件可能會(huì)導(dǎo)致更頻繁的安全漏洞或合規(guī)失敗。

這些漏洞和失敗確實(shí)越來(lái)越頻繁。思科5月7日發(fā)布的最新網(wǎng)絡(luò)安全就緒指數(shù)發(fā)現(xiàn),86%的組織在過(guò)去一年中經(jīng)歷過(guò)與人工智能相關(guān)的安全事件。不到一半(45%)的組織認(rèn)為他們擁有進(jìn)行全面人工智能安全評(píng)估的內(nèi)部資源和專業(yè)知識(shí)。

可見(jiàn),組織必須平衡AI創(chuàng)新與風(fēng)險(xiǎn)管理,確保監(jiān)管一致性、客戶信任和董事會(huì)層面的監(jiān)督。缺乏系統(tǒng)化的安全策略,企業(yè)可能會(huì)面臨敏感數(shù)據(jù)暴露、遭受對(duì)抗性操縱以及利益相關(guān)者信心削弱的風(fēng)險(xiǎn)。

AI安全不再僅僅是一個(gè)運(yùn)營(yíng)問(wèn)題;它是一項(xiàng)戰(zhàn)略性要?jiǎng)?wù),直接影響企業(yè)風(fēng)險(xiǎn)、監(jiān)管暴露和長(zhǎng)期業(yè)務(wù)可行性。

匆忙上馬帶來(lái)的8大安全風(fēng)險(xiǎn)

網(wǎng)絡(luò)安全專業(yè)媒體CSO在采訪眾多專家后得出結(jié)論,未能在部署前充分測(cè)試AI系統(tǒng)會(huì)使組織面臨一系列與傳統(tǒng)軟件風(fēng)險(xiǎn)顯著不同的漏洞。以下是一些最普遍的風(fēng)險(xiǎn):

1.數(shù)據(jù)暴露

人工智能系統(tǒng)通常處理大量敏感信息,如果沒(méi)有經(jīng)過(guò)強(qiáng)大的測(cè)試,組織可能會(huì)忽視這些數(shù)據(jù)通過(guò)不安全的存儲(chǔ)、過(guò)于寬松的API響應(yīng)或薄弱的訪問(wèn)控制而輕易泄露的可能性。

"許多人工智能系統(tǒng)在推理過(guò)程中提取用戶數(shù)據(jù)或存儲(chǔ)上下文以保持會(huì)話持久性。"AI安全測(cè)試供應(yīng)商Mindgard首席執(zhí)行官兼聯(lián)合創(chuàng)始人Peter Garraghan表示,"如果不審核數(shù)據(jù)處理,就有很高的風(fēng)險(xiǎn)通過(guò)模型輸出、日志暴露或?yàn)E用微調(diào)數(shù)據(jù)集導(dǎo)致數(shù)據(jù)泄露。LLM(大語(yǔ)言模型)的記憶功能或流式輸出模式會(huì)加劇這些風(fēng)險(xiǎn)。"

2.模型級(jí)漏洞

這類漏洞包括提示注入、越獄和對(duì)抗性提示鏈接。如果沒(méi)有嚴(yán)格測(cè)試,模型可能被操縱以繞過(guò)輸出限制、泄露敏感數(shù)據(jù)或執(zhí)行非預(yù)期任務(wù)。

英國(guó)蘭卡斯特大學(xué)講師Garraghan解釋說(shuō),這些攻擊通常利用模型對(duì)齊機(jī)制中的缺陷,或其對(duì)基于token之間的統(tǒng)計(jì)關(guān)系進(jìn)行預(yù)測(cè)和推理的依賴。

舉例來(lái)說(shuō),攻擊者可能使用特定的提示模式,讓模型"忘記"之前的安全指令,或者利用模型對(duì)某些詞語(yǔ)組合的處理方式,誘導(dǎo)它生成本應(yīng)被禁止的內(nèi)容。這些攻擊方法能夠繞過(guò)模型的安全保護(hù)機(jī)制,導(dǎo)致模型執(zhí)行不當(dāng)行為。

3.模型完整性和對(duì)抗性攻擊

.如果不測(cè)試對(duì)抗性操縱或受污染的訓(xùn)練數(shù)據(jù),攻擊者很容易影響人工智能模型的行為,特別是當(dāng)它被用于支持業(yè)務(wù)決策或自動(dòng)化敏感任務(wù)時(shí),組織可能面臨模型被操縱而做出錯(cuò)誤決策的風(fēng)險(xiǎn)。

全球網(wǎng)絡(luò)咨詢公司CyXcel的首席運(yùn)營(yíng)官Jano Bermudes表示:"攻擊者可以操縱輸入數(shù)據(jù)來(lái)欺騙人工智能模型,導(dǎo)致其做出錯(cuò)誤決策。這包括規(guī)避攻擊和數(shù)據(jù)投毒。"

所謂規(guī)避攻擊,是一種對(duì)抗性操縱,攻擊者精心設(shè)計(jì)輸入數(shù)據(jù),使模型產(chǎn)生錯(cuò)誤的輸出或決策。例如,通過(guò)微調(diào)圖像中的像素,使圖像識(shí)別系統(tǒng)將停車標(biāo)志誤認(rèn)為限速標(biāo)志。

數(shù)據(jù)投毒是指在模型訓(xùn)練階段,攻擊者向訓(xùn)練數(shù)據(jù)集中注入惡意或有偏見(jiàn)的數(shù)據(jù),從而使模型學(xué)習(xí)到錯(cuò)誤的模式或偏見(jiàn)。當(dāng)模型部署后,這些"毒素"會(huì)導(dǎo)致模型在特定情況下做出有利于攻擊者的決策。

4.系統(tǒng)集成風(fēng)險(xiǎn)

 AI模型通常不是獨(dú)立運(yùn)行的,而是作為更大應(yīng)用系統(tǒng)的一個(gè)組成部分被集成進(jìn)去。這種集成主要通過(guò)API、MCP、A2A、插件和RAG架構(gòu)(檢索增強(qiáng)生成)等方式實(shí)現(xiàn)。

Mindgard公司的Garraghan指出,這些集成點(diǎn)的安全測(cè)試不足,可能導(dǎo)致模型輸入和輸出的不安全處理、通過(guò)序列化數(shù)據(jù)格式的注入路徑以及托管環(huán)境內(nèi)的權(quán)限提升三類主要安全問(wèn)題,而這些安全風(fēng)險(xiǎn)點(diǎn)在傳統(tǒng)應(yīng)用安全工作流程中經(jīng)常被忽視:

模型輸入和輸出的不安全處理:例如,未經(jīng)驗(yàn)證的用戶輸入可能被直接傳遞給模型,或模型的輸出未經(jīng)過(guò)濾就被執(zhí)行,這可能導(dǎo)致注入攻擊或信息泄露。

通過(guò)序列化數(shù)據(jù)格式的注入路徑:序列化是將數(shù)據(jù)結(jié)構(gòu)或?qū)ο筠D(zhuǎn)換為可存儲(chǔ)或傳輸格式的過(guò)程。攻擊者可能利用這些數(shù)據(jù)格式中的漏洞注入惡意代碼,例如通過(guò)JSON、XML或其他數(shù)據(jù)交換格式。

托管環(huán)境內(nèi)的權(quán)限提升:AI模型可能需要訪問(wèn)各種資源,如果權(quán)限管理不當(dāng),攻擊者可能利用這些權(quán)限訪問(wèn)敏感數(shù)據(jù)或執(zhí)行未授權(quán)操作。

因此,僅僅關(guān)注AI模型本身的安全性遠(yuǎn)遠(yuǎn)不夠,還必須考慮模型如何與更廣泛的應(yīng)用環(huán)境集成,以及這些集成點(diǎn)可能引入的安全漏洞。

5.訪問(wèn)控制失敗

AI工具在與更廣泛的系統(tǒng)(如數(shù)據(jù)庫(kù)、云服務(wù)、企業(yè)應(yīng)用等)相連接時(shí),如果配置不當(dāng),可能導(dǎo)致三類主要安全問(wèn)題,使濫用行為難以被發(fā)現(xiàn)。:

暴露的API密鑰:如果這些密鑰被硬編碼在代碼中、存儲(chǔ)在不安全的位置或意外公開(kāi)(如上傳到公共代碼倉(cāng)庫(kù)),攻擊者可能獲取這些密鑰并冒充合法用戶訪問(wèn)系統(tǒng)。例如,一個(gè)暴露的OpenAI API密鑰可能被攻擊者用來(lái)生成大量?jī)?nèi)容,導(dǎo)致賬單激增。

糟糕的身份驗(yàn)證:諸如弱密碼策略、缺少多因素認(rèn)證、過(guò)于寬松的訪問(wèn)控制或不安全的會(huì)話管理這樣的糟糕的身份驗(yàn)證,可能允許未授權(quán)用戶訪問(wèn)AI系統(tǒng)或通過(guò)AI系統(tǒng)訪問(wèn)其連接的資源。例如,如果AI聊天機(jī)器人的身份驗(yàn)證機(jī)制存在缺陷,攻擊者可能繞過(guò)限制,訪問(wèn)敏感信息或執(zhí)行特權(quán)操作。

不足的日志記錄:如果系統(tǒng)沒(méi)有適當(dāng)記錄訪問(wèn)和操作日志,或日志存儲(chǔ)不安全,管理員可能無(wú)法發(fā)現(xiàn)正在進(jìn)行的攻擊或事后調(diào)查安全事件。這使得濫用行為難以被檢測(cè)和追蹤,攻擊者可能長(zhǎng)時(shí)間不被發(fā)現(xiàn)地操作系統(tǒng)。

6.運(yùn)行時(shí)安全故障

AI系統(tǒng)可能會(huì)表現(xiàn)出"新興行為"(emergent behavior)。這是指系統(tǒng)在實(shí)際運(yùn)行環(huán)境中展現(xiàn)出的、在開(kāi)發(fā)和測(cè)試階段未被預(yù)見(jiàn)的行為模式。這種現(xiàn)象特別容易在兩種情況下發(fā)生:系統(tǒng)面對(duì)動(dòng)態(tài)變化的輸入條件時(shí),系統(tǒng)與其他服務(wù)進(jìn)行復(fù)雜交互時(shí)。

Garraghan表示,"邏輯損壞、上下文溢出或輸出反射等漏洞通常只在運(yùn)行時(shí)出現(xiàn),需要運(yùn)營(yíng)紅隊(duì)測(cè)試或?qū)崟r(shí)流量模擬才能檢測(cè)到。"

由此可見(jiàn)AI系統(tǒng)安全測(cè)試的復(fù)雜性,僅依靠開(kāi)發(fā)階段的靜態(tài)測(cè)試是不夠的,還需要在部署環(huán)境中進(jìn)行動(dòng)態(tài)安全監(jiān)控和測(cè)試,以發(fā)現(xiàn)那些只在實(shí)際運(yùn)行條件下才會(huì)出現(xiàn)的安全漏洞。

7.合規(guī)違規(guī)

企業(yè)如果未能確保其AI工具符合相關(guān)監(jiān)管標(biāo)準(zhǔn),可能面臨法律后果。這種風(fēng)險(xiǎn)主要來(lái)自兩個(gè)方面:未經(jīng)授權(quán)的數(shù)據(jù)處理和未經(jīng)測(cè)試的模型行為在規(guī)模下導(dǎo)致的中斷。

其中,未經(jīng)測(cè)試的模型行為在規(guī)模下導(dǎo)致的中斷指的是AI系統(tǒng)在大規(guī)模部署后出現(xiàn)的問(wèn)題,例如:AI系統(tǒng)做出有歧視性的決策;自動(dòng)化系統(tǒng)故障導(dǎo)致大規(guī)模服務(wù)中斷;AI系統(tǒng)提供不準(zhǔn)確或有害建議,導(dǎo)致用戶損失;算法偏見(jiàn)導(dǎo)致不公平結(jié)果,影響特定群體。

隨著全球AI監(jiān)管框架的不斷發(fā)展(如歐盟的《人工智能法案》、中國(guó)的《生成式人工智能服務(wù)管理暫行辦法》等),企業(yè)面臨的合規(guī)要求越來(lái)越嚴(yán)格。

8.更廣泛的運(yùn)營(yíng)影響

AI安全不僅是技術(shù)問(wèn)題,而是涉及整個(gè)組織的風(fēng)險(xiǎn)管理問(wèn)題。忽視AI安全測(cè)試可能導(dǎo)致技術(shù)漏洞轉(zhuǎn)化為業(yè)務(wù)風(fēng)險(xiǎn),包括數(shù)據(jù)泄露、合規(guī)違規(guī)、聲譽(yù)損害和財(cái)務(wù)損失。組織需要將AI安全視為戰(zhàn)略優(yōu)先事項(xiàng),而不僅僅是技術(shù)考量。

"如果不進(jìn)行測(cè)試,這些技術(shù)漏洞不會(huì)孤立存在,"Mindgard的Garraghan表示。"它們表現(xiàn)為跨越工程領(lǐng)域的更廣泛組織風(fēng)險(xiǎn)。從運(yùn)營(yíng)影響的角度來(lái)看,人工智能安全測(cè)試不足的后果直接映射到安全、保障和業(yè)務(wù)保證的失敗。"

合規(guī)專家ISMS.online的首席產(chǎn)品官Sam Peters看到,由于組織傾向于忽視適當(dāng)?shù)腁I安全審查,導(dǎo)致了廣泛的運(yùn)營(yíng)影響。

"當(dāng)AI系統(tǒng)匆忙投入生產(chǎn)時(shí),我們看到三個(gè)關(guān)鍵領(lǐng)域存在反復(fù)出現(xiàn)的漏洞:模型完整性(包括投毒和規(guī)避攻擊)、數(shù)據(jù)隱私(如訓(xùn)練數(shù)據(jù)泄露或敏感數(shù)據(jù)處理不當(dāng))以及治理差距(從缺乏透明度到訪問(wèn)控制薄弱)。"他說(shuō)。

Peters強(qiáng)調(diào),這些問(wèn)題不再是一種猜測(cè),而是已經(jīng)在實(shí)際環(huán)境中被利用了。

測(cè)試的重要性及要點(diǎn)

當(dāng)"速度"成為唯一追求時(shí),安全往往成為第一個(gè)被犧牲的方面,這種匆忙部署AI的做法正在為企業(yè)埋下定時(shí)炸彈。

AI項(xiàng)目部署交付之前的測(cè)試就顯得尤為重要。以下是AI安全測(cè)試的幾個(gè)要點(diǎn):

1.平衡快速部署與安全需求

.CSO們正面臨快速部署AI與確保安全之間的困境。Sparrow公司的James Lei建議抵制不受約束的熱情,將基本安全實(shí)踐引入部署過(guò)程。

他說(shuō):"組織應(yīng)該像測(cè)試任何高風(fēng)險(xiǎn)軟件一樣測(cè)試人工智能工具,運(yùn)行模擬攻擊,檢查濫用場(chǎng)景,驗(yàn)證輸入和輸出流,并確保任何處理的數(shù)據(jù)都得到適當(dāng)保護(hù)。"

2.實(shí)施全面的AI測(cè)試策略

組織需要采用多層次的測(cè)試方法來(lái)保障AI系統(tǒng)安全:

  • 滲透測(cè)試:通過(guò)模擬攻擊識(shí)別系統(tǒng)漏洞
  • 偏見(jiàn)和公平性審計(jì):確保AI決策公平且無(wú)歧視
  • 合規(guī)檢查:驗(yàn)證系統(tǒng)是否遵守相關(guān)法規(guī)和標(biāo)準(zhǔn)

通過(guò)將安全測(cè)試集成到AI開(kāi)發(fā)生命周期中,組織可以利用人工智能的好處,同時(shí)防范潛在威脅。

"在部署AI工具之前,組織應(yīng)該進(jìn)行針對(duì)AI的威脅建模,對(duì)抗性輸入的紅隊(duì)測(cè)試,以及對(duì)模型漂移和數(shù)據(jù)泄露的穩(wěn)健測(cè)試,"ISMS.online的Peters表示,同時(shí)還應(yīng)該將AI特定控制集成到風(fēng)險(xiǎn)管理和合規(guī)計(jì)劃中。

3.采用AI特定的安全測(cè)試方法

Intigriti的首席黑客官Inti De Ceukelaire指出了AI測(cè)試的獨(dú)特挑戰(zhàn):"與常規(guī)軟件測(cè)試不同,你不能僅僅通過(guò)查看神經(jīng)網(wǎng)絡(luò)的代碼來(lái)判斷它是否安全。即使它是在干凈、高質(zhì)量的數(shù)據(jù)上訓(xùn)練的,它仍然可能表現(xiàn)出奇怪的行為。這使得很難知道何時(shí)測(cè)試足夠了。"

ISMS.online的Peters強(qiáng)調(diào)了AI系統(tǒng)需要特殊的安全測(cè)試方法:"在部署AI工具之前,組織應(yīng)該進(jìn)行針對(duì)AI的威脅建模,對(duì)抗性輸入的紅隊(duì)測(cè)試,以及對(duì)模型漂移和數(shù)據(jù)泄露的穩(wěn)健測(cè)試。"

Mindgard的Garraghan補(bǔ)充了更具體的測(cè)試框架: "這包括靜態(tài)模型分析、動(dòng)態(tài)提示模糊測(cè)試、集成層攻擊模擬和運(yùn)行時(shí)行為監(jiān)控。這些實(shí)踐應(yīng)該嵌入到人工智能部署生命周期中,就像DevSecOps實(shí)踐集成到軟件CI/CD管道中一樣。"

4.拓展測(cè)試范圍

測(cè)試人員需要擴(kuò)展測(cè)試范圍,不僅關(guān)注AI應(yīng)該做什么,還要考慮它能做的其他事情。

"AI工具通常為簡(jiǎn)單問(wèn)題提供復(fù)雜解決方案。測(cè)試人員可能只關(guān)注工具應(yīng)該做什么,而忽略它能做的其他事情。"Intigriti的 De Ceukelaire舉例,翻譯工具可能被誘騙打開(kāi)帶有惡意代碼的PDF或訪問(wèn)內(nèi)部文件并將其翻譯給公司外部的人。"

5.利用標(biāo)準(zhǔn)框架進(jìn)行AI治理

Peters強(qiáng)調(diào)了標(biāo)準(zhǔn)框架在AI治理中的價(jià)值:"這正是新的ISO/IEC 42001標(biāo)準(zhǔn)能真正幫助的地方。它提供了負(fù)責(zé)任地治理AI的框架,包括風(fēng)險(xiǎn)評(píng)估、數(shù)據(jù)處理、安全控制和持續(xù)監(jiān)控的指導(dǎo)。"

將AI特定控制集成到組織的風(fēng)險(xiǎn)管理和合規(guī)計(jì)劃中,可以建立更全面的安全保障體系。

參考鏈接:8 security risks overlooked in the rush to implement AI | CSO Online

責(zé)任編輯:武曉燕 來(lái)源: 安全牛
相關(guān)推薦

2010-06-11 22:25:51

云計(jì)算安全隱患

2010-06-13 10:00:31

云計(jì)算安全

2014-11-04 16:50:35

2010-10-25 17:22:52

2010-03-11 15:05:37

云計(jì)算安全

2021-09-17 10:44:03

物聯(lián)網(wǎng)人工智能IoT

2012-08-29 10:37:34

2019-07-08 11:34:19

大數(shù)據(jù)技術(shù)數(shù)據(jù)安全

2010-05-27 17:23:07

2016-10-23 22:41:09

2010-04-19 23:46:16

2009-07-27 15:44:32

ASP.NET虛擬主機(jī)

2025-02-18 15:13:29

2017-07-12 09:11:16

2010-10-12 16:22:29

2012-02-06 10:14:02

云計(jì)算云安全

2013-07-24 09:33:46

Hadoop安全加密

2011-03-30 10:15:24

2010-09-17 14:29:23

2015-09-22 15:40:51

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 国产免费色 | 精品免费国产视频 | 日韩欧美三区 | 国产日韩久久 | 国产aⅴ爽av久久久久久久 | 久久精品欧美一区二区三区不卡 | 天天综合操 | 日干夜干| 国产精品久久久久一区二区三区 | 成人午夜在线 | 九九在线视频 | 青青草这里只有精品 | 欧美久久视频 | 成人激情视频在线观看 | 亚洲午夜精品视频 | 午夜精品视频在线观看 | a在线v| 欧美精品在线免费观看 | 亚洲激情综合网 | 日日夜精品视频 | heyzo在线| 久久中文视频 | 亚洲综合在线播放 | 在线一级片 | 亚洲精品久久久久久久久久久久久 | 日韩在线视频一区二区三区 | 久久久国产一区二区三区 | 9191在线观看| 五月婷婷在线视频 | 第一区在线观看免费国语入口 | 亚洲大片在线观看 | 欧美日韩视频在线第一区 | 亚洲一二三在线 | 免费午夜视频在线观看 | 97免费在线视频 | 亚洲精品久 | 99精品视频免费在线观看 | 精品中文在线 | 午夜免费网 | 91免费观看 | 在线视频国产一区 |