如果當前的 AI 炒作是死胡同怎么辦?
如果我們面對人工智能的死胡同,網絡安全行業將繼續嚴重依賴傳統方法,尤其是人為驅動的方法。不過,這不會像往常一樣。
正如我在之前關于初學者網絡安全未來主義的專欄中所討論的那樣,我們正在應用未來研究中常用的方法和方法,尤其是水平掃描和場景規劃,以探索未來場景,了解 AI(例如 LLM)如何影響未來的安全操作。
快速重申一下,地平線掃描嚴格來說并不是預測未來。相反,它是關于及早發現微弱信號以識別新興趨勢的驅動因素。我們并不是要確定一個單一的預期未來。相反,我們描述了一系列可能的未來(四種未來模型)。然后,規劃人員可以使用這些未來來進一步開發場景,以幫助進行風險評估、戰略規劃或類似任務。
AI 未來 #1:死胡同 AI
炒作人的工作是讓每個人都離開座位,在舞池里盡情享受。
風味風味
本周我們設想了一個我們稱之為“死胡同 AI”的未來,其中 AI 無法實現圍繞它的炒作。我們考慮了這種未來的兩種可能情況。兩者都有相似的近期和中期結果,因此我們可以一起討論。
場景 #1: AI 結束了另一種炒作,如加密貨幣、NFT 和Metaverse。
場景 #2: AI 被過度炒作,由此產生的失望導致資金撤出和新的 AI 寒冬。
在一個死胡同的人工智能未來,目前圍繞人工智能的炒作最終被證明是沒有根據的。隨著技術局限性現實的出現,對 AI 的熱情和投資逐漸減少。AI 社區經歷了幻滅,導致新的 AI 寒冬,資金和研究顯著減少。
請注意,未來并不意味著例如機器學習根本沒有有益的應用,或者人工智能在理論上是不可行的。這意味著由于各種限制和制約,當前的人工智能進步浪潮不會逐步過渡到成熟的通用人工智能 (AGI),也就是技術奇點。
分析
我們將討論可能導致 AI 走向死胡同的關鍵外部因素。我們將在可能的情況下引用強信號和弱信號。您可能會注意到許多因素是多么緊密地交織在一起,并且您還將開始看到在我們整個系列中有些因素將如何在略有不同的環境中重新出現。
支持死胡同的 AI 未來的信號
我們將在下面分析一些可能表明 AI 走投無路的信號和趨勢。
經濟因素
投資者正涌入生成式人工智能,早期創業投資者在 2022 年投資了 2.2B 美元(相比之下,整個歐洲為 5.8B 美元)。 但是,如果 AI 無法提供預期的投資回報,那么對 AI 研發的進一步資助將是災難性的。
例如,風險投資公司 Andreessen-Horowitz (a16z) 發布了一份報告,指出一家典型的使用大型語言模型的初創公司將 80% 的資本用于計算成本。報告作者還指出,單個 GPT-3 培訓成本在 50 萬美元到 460 萬美元之間,具體取決于硬件假設。
矛盾的是,投資這些登月計劃的資金并不一定能保證經濟上的成功或可行性,谷歌最近泄露的一份報告稱,沒有護城河可以阻止普遍和開源采用這類模型。其他公司,如 Snapchat,過早地推出產品并匆匆上市,結果卻一敗涂地。
如此高昂的開發成本,加上缺乏盈利的應用,不會讓投資者或股東高興。它還導致大規模的資本破壞,只有少數云和硬件供應商高興。
與此同時,相當一部分企業領導者對積極采用人工智能的呼聲很高,中國藍光標智能通信集團公司計劃用生成式人工智能全面取代外部文案和編輯,IBM 估計高達 50% 的常規工作可以自動化。如果這些假設被證明是錯誤的,許多企業將被識破并面臨痛苦的調整。
一些批評家已經敦促謹慎行事,因為存在相當大的尚未量化的風險,例如關于生成藝術作品的版權。生成人工智能經濟的現實世界經驗也參差不齊。fiverr 或 Upwork 等自由職業服務的客戶報告說,使用生成模型公然創建的低質量工作 激增。
最后,對于最近剛剛向我們出售加密貨幣、NFT 和 Metaverse 的同一企業的另一項新的、革命性的技術創新,存在相當大的懷疑和可以理解的疲勞。
實際應用進展有限
雖然我們在狹義人工智能應用方面取得了重大進展,但我們還沒有看到真正的通用人工智能 (AGI) 取得進展,盡管毫無根據地聲稱它可能以某種方式突然出現。生成式 AI 模型顯示出不可思議的現象,但它們是完全可以解釋的,包括它們的局限性。
在大量關于人工智能如何使營銷、開發和設計中的一切自動化的文章之間,也有越來越多的證據表明,這類模型的應用領域可能非常狹窄。現實場景中的自動化需要高度的準確性和精確性,例如,在阻止網絡釣魚嘗試時, LLM 并非為此而設計。
一些技術專家已經表達了對當前模型實際功能與描述方式以及更重要的是銷售方式的巨大差異的擔憂,并且已經對新的 AI 寒冬敲響了警鐘。
人工智能在理論上擁有巨大的前景。但由于可行性問題、缺乏明確的用例或無法有效擴展解決方案,實際應用可能達不到炒作的程度。
隱私和道德問題
另一組不斷增長的信號是對隱私、道德和人工智能系統的潛在濫用的擔憂日益增加。令人驚訝的是,有很多聲音主張更嚴格的監管,這可能會阻礙 AI 的開發和采用,從而導致 AI 陷入死胡同。
Geoffrey Hinton 是人工神經網絡的先驅之一,最近辭去了他在谷歌的工作,以便能夠在沒有任何利益沖突的情況下警告世界他認為不受控制的人工智能的風險和危險。白宮召集谷歌、微軟、OpenAI 和 Anthropic 的高管開會,討論人工智能的未來。最大的驚喜可能是 CEO 要求接受監管,OpenAI 的 Sam Altman 敦促美國國會這樣做。一篇文章甚至主張我們需要評估控制此類技術的人們的信念,表明他們可能更愿意接受存在的風險。
我們場景中的悲劇是,圍繞人工智能的夸張實際上可能會得出關于人工智能潛在濫用的倫理和社會影響的結論,從而導致扼殺其發展的嚴格監管。隱私問題、工作崗位流失和“deepfake”技術等問題可能會引發強烈反對,促使政府實施嚴格限制,盡管實際上該技術的影響很小或反復出現。
如果 AI 系統被視為不可信,無論決策制定中引人注目的失敗和偏見是真實的還是想象的,公眾的看法都可能會反對 AI。
對環境造成的影響
AI 的前景不僅僅基于自動化——它還必須價格低廉、隨時可用且越來越可持續。人工智能在技術上可能是可行的,但它可能不經濟,甚至對環境有害。
大量可用數據表明,像法學碩士這樣的人工智能技術對環境有相當大的影響。最近的一項研究“讓 AI 不那么“渴”:揭開和解決 AI 模型的秘密水足跡”計算得出,一次包含 20-50 個問題的典型對話會消耗 500 毫升水,并且可能需要多達 700,000 升水水只是為了訓練 GPT-3。
斯坦福大學以人為本的人工智能研究所 (HAI) 2023 年人工智能指數報告得出的結論是,GPT3 的單次訓練排放了相當于 502 噸的二氧化碳,即使是最節能的模型 BLOOM,排放的碳也高于平均水平美國人每年使用量(BLOOM 為 25 噸,而人類為 18 噸)。
我們才剛剛開始 LLM 的時代,毫無疑問,效率會有所提高,但必須是實質性的。預計較新的模型將變得更大,而采用雖然在歷史上是無與倫比的,但仍才剛剛開始。如果要實現超自動化和按需虛擬助手的承諾,能源消耗將不可持續地增長。問題是高耗能人工智能模型將如何在低碳經濟中蓬勃發展?
對安全運營的影響
如果當前的 AI 技術浪潮被嚴重夸大并被證明是死胡同,那么對安全運營的影響可能如下:
傳統方法將重新成為人們關注的焦點。
由于人工智能未能兌現其智能自動化和分析的承諾,網絡安全運營將繼續依賴人為驅動的流程和傳統的安全措施。
這意味著安全專業人員將不得不不斷完善現有技術,例如零信任和網絡衛生。他們還必須繼續創建和策劃源源不斷的最新檢測、行動手冊和威脅情報,以跟上不斷變化的威脅形勢。
安全運營管理能力,尤其是跨異構基礎設施的檢測和響應等工作流程的編排,仍然很難做好,而且成本很高。
中型組織尤其需要更多地依賴服務來縮小由此產生的技能和人員差距。新的服務產品和模型將會發展,尤其是在自動化和分析需要專業知識和技能的情況下。
從好的方面來說——至少威脅形勢也只會按照人類的步伐發展。
自動化將趨于平穩。
如果沒有更多的智能機器自動化,組織將繼續與網絡安全領域的人才短缺作斗爭。對于分析師來說,手動工作量仍然很高。組織將需要尋找其他方法來簡化操作。
像 SOAR 這樣的自動化方法將仍然非常手動,并且仍然基于靜態和預配置的劇本。無代碼和低代碼自動化可能有助于使自動化更容易和可訪問,但自動化本質上仍將是腳本化和愚蠢的。
然而,即使是今天的 LLM 能力水平也足以自動化基本的日志解析、事件轉換和一些分類用例。到 2024 年底,這些功能將在幾乎所有安全解決方案中無處不在。
威脅檢測和響應將保持緩慢
在沒有人工智能驅動的解決方案的情況下,威脅檢測和響應時間只能略有改善。減少黑客必須利用漏洞并造成損害的機會窗口將意味著在操作上變得更加有效。組織將不得不專注于增強其現有系統和流程,以最大程度地減少檢測和響應時間緩慢的影響。自動化將更有選擇性但更積極地集成。
威脅情報將繼續難以管理。
由于缺乏 AI 驅動的分析,供應商將繼續難以收集和管理威脅情報,并且對于大多數最終用戶而言,更具戰略性地使用威脅情報仍然具有挑戰性。安全團隊將不得不依靠手動流程來收集、分析威脅信息并將其背景化,這可能會導致對新威脅和不斷演變的威脅的認識和響應出現延遲。必須使用更簡單的方法來增強傳播和分析大量威脅情報的能力,例如可視化和圖形分析。集體和協作情報共享也需要重新審視和修改。
重新強調人類的專業知識
如果人工智能無法交付,人類專業知識在網絡安全運營中的重要性將變得更加關鍵。組織將需要繼續優先考慮招聘、培訓和留住熟練的網絡安全專業人員,以保護他們的資產并將風險降至最低。安全專家的競爭將繼續激烈。需要開發新的方法和框架,以更好地捕捉和維護稀有的團隊專業知識,改進知識管理,并更好地跨團隊和跨領域合作。
結論
如果我們面對人工智能的死胡同,網絡安全行業將繼續嚴重依賴傳統方法,尤其是人為驅動的方法。不過,這不會像往常一樣。
即使是我們聽到的一些不太令人印象深刻的用例也已經解決了一些艱巨的挑戰。從將人類語言查詢即時翻譯成 SQL 語法,加快經驗豐富的開發人員編碼的速度,或對網絡事件進行分類,LLM 的影響已經顯現。這是一股能托起所有船只的浪潮——既包括防御者,也包括攻擊者。
但更重要的是進展是否會繼續。除了技術限制和局限性之外,一系列其他驅動因素和趨勢也會影響我們是否會經歷一個新的 AI 寒冬。僅憑對人工智能可能帶來的風險的認識,從社會不穩定到自主 Killbots,就足以引發監管打壓,從而扼殺任何進一步的進展。過早設定過高的期望也可能導致足夠的失望和幻滅,從而迎來 AI 寒冬。
炒作所造成的損害遠不止煩人。它可能導致 FOMO 并導致經濟損失。它還可以過早地扼殺其他有前途的技術。
概率:0.25 不太可能
雖然在考慮 AI 和網絡安全運營的未來時出現的問題有很多未知數,但我相信目前圍繞 AI 和生成 AI 的炒作至少有一些事實依據。
也有很多有識之士看好生成式人工智能,其他人工智能方法仍然是主流。我們已經在一些地方看到了好處。有足夠多的萌芽表明這是一個真正的突破。但我認為這是進化,而不是革命。如果您一直在使用 Grammarly、一個 AI 寫作助手、大多數編程 IDE 甚至只是您的手機來發送消息,您就會體驗到這種緩慢的進化趨勢。不同之處在于它首次準備好生產。我們現在可以開始構建真正有趣的東西,看看當我們停止嘗試構建更快的馬時會發生什么,正如亨利福特打趣說如果他問他的客戶他會怎么做。
盡管如此,炒作的感覺并沒有錯。有很多善意但不是很技術的評論員只是在做他們的工作要求,相當多的嫁接者,而不是少數絕望的企業和投資者,他們都抓住每一個主張,無論多么投機或未經證實的。
所以我的估計是,這兩個未來,即圍繞生成人工智能的炒作沒有真正的基礎,或者炒作將導致新的人工智能冬天,不太可能發生。
作者:奧利弗·羅奇福德