CCS Insight預測:生成式AI將在2024年遇冷
一家分析公司預測,明年將對充滿熱情的生成式AI領域進行現實檢驗,而圍繞該技術的炒作逐漸減弱、運行成本上升以及對監管的呼聲增加,這些跡象表明該技術面臨著即將放緩的局面。
在其關于2024年及以后技術行業未來的年度預測中,CCS Insight對人工智能的未來也提出了預測:
生成式AI將在2024年“遇冷”,因為與該技術相關的成本、風險和復雜性的現實將高于“炒作”帶來的關注度。
CCS Insight首席分析師本·伍德在預測報告發布前對CNBC表示:“總的來說,現在每個人都在談論生成式AI,谷歌、亞馬遜、高通、Meta等公司都在加大投入。”
伍德說:“我們認為AI將對經濟產生巨大影響,對整個社會產生重大影響,對提高生產力非常有益。”
不過,他也指出:“2023年圍繞生成式AI的炒作實在太大了,我們認為它被過度炒作了,需要克服許多障礙才能將其推向市場。”
OpenAI的ChatGPT、Google的Bard、Anthropic的Claude和Synthesia等生成式AI模型依賴于大量算力運行復雜的數學模型,從而計算出如何回應用戶提示的答案。這些公司必須獲取高性能芯片來運行人工智能應用。這些算力通常是由芯片巨頭Nvidia提供。
現在,包括亞馬遜、谷歌、阿里巴巴、Meta、OpenAI在內的越來越多公司正在設計自己的專用AI芯片來運行這些人工智能應用。
伍德告訴CNBC:“部署和維持生成式AI的成本非常高昂。” 他說:“這對于那些大公司來說沒問題。但對于許多組織和開發者來說,這將變得過于昂貴。”
歐盟人工智能監管面臨阻礙
CCS Insight的分析師還預測,歐盟的人工智能監管將面臨阻礙。 他們表示,歐盟仍將成為首個針對人工智能引入具體監管的地區,但由于人工智能的快速發展,這一監管可能會被多次修訂和重繪。
伍德預測:“直到2024年底,立法才會最終確定,這使得行業在自我監管方面首先采取行動。” 生成式AI今年引起了科技愛好者、風險投資家和企業高層的極大關注,因為它能夠以類似人類的方式根據文本提示生成新材料。
這項技術已被用于生成從泰勒·斯威夫特風格的歌詞到完整的大學論文等各種材料,雖然它展示了人工智能的巨大潛力,但也引發了政府官員和公眾的日益關注,他們擔心它已經變得過于先進,可能會使人們失業。一些政府呼吁對人工智能進行監管。
在歐盟,正在進行工作以通過AI法案引入基于風險的人工智能監管,某些技術,如實時面部識別,可能會被完全禁止。對于基于大型語言模型的生成式AI工具,如OpenAI的ChatGPT,在向公眾發布之前,這些模型的開發者必須將其提交進行獨立審查。這在人工智能社區中引起了爭議,他們認為這些計劃過于限制性。
幾個重要的基礎人工智能模型背后的公司表示歡迎監管,并認為技術應該接受審查和監管。但他們對如何監管人工智能的方法各不相同。
OpenAI的首席執行官山姆·阿爾特曼在6月份呼吁,應該設立一個獨立的政府專員來處理人工智能的復雜性并許可該技術。
谷歌則在提交給國家電信和信息管理局的評論中表示,他們更希望采取“多層次、多利益相關方參與的方法來治理人工智能”。
AI內容警告
據CCS Insight預測,搜索引擎將很快為用戶添加內容警告,以提醒他們正在查看的材料是由人工智能生成的,而不是人類創作的。
每天都有大量由人工智能生成的新聞報道被發布,其中常常充斥著事實錯誤和錯誤信息。據新聞和信息網站評級系統NewsGuard稱,有49個新聞網站的內容完全由人工智能軟件生成。
CCS Insight預測,這樣的發展將促使一家互聯網搜索公司為由人工智能制造的材料添加標簽,就像社交媒體公司為與新冠病毒相關的帖子引入信息標簽以打擊有關病毒的錯誤信息一樣。
AI犯罪不會得逞
CCS Insight預測,明年將開始逮捕使用基于人工智能進行身份欺詐的人。
該機構表示,警方將在2024年早期首次逮捕使用人工智能模仿他人的人,無論是通過語音合成技術還是其他形式的“深度偽造”。
CCS Insight在其預測中表示:“圖像生成和語音合成基礎模型可以根據社交媒體上公開發布的數據定制,以模仿目標人物,從而實現成本效益和逼真的深度偽造。”
他們說:“潛在影響廣泛,包括對個人和職業關系的損害,以及銀行、保險和福利方面的欺詐。”