2023年人工智能和機器學習的六大趨勢
人工智能繼續(xù)改變我們的世界,因為公司希望通過智能手機、智能電視、智能汽車——智能一切——實時提供智能體驗來贏得消費者。但隨著新機遇的出現(xiàn),組織也在尋求跨越 AI 鴻溝的過程中發(fā)現(xiàn)新的挑戰(zhàn)。以下是我將在來年追蹤的六大 AI/ML 趨勢,以及有關企業(yè)如何保持領先于每個趨勢的建議。
1. 實時用例推動 ML 技術堆棧的變化
我們公司的研究小組 Verta Insights最近的一項研究發(fā)現(xiàn),超過三分之二的 ML 從業(yè)者預計實時用例在未來三年內(nèi)會顯著增加。這種趨勢將挑戰(zhàn)其 ML 技術堆棧圍繞分析/批處理工作負載構建的公司,這些工作負載不適合在面向客戶的應用程序中大規(guī)模操作實時用例。
建議:一直生活在數(shù)據(jù)倉庫世界并支持分析/批處理工作負載的組織需要重新評估他們的技術堆棧,著眼于實時用例的事務處理。他們還需要依靠負責任的人工智能,以確保他們在與客戶互動時不會從有用的超個性化變成令人毛骨悚然的界限。
2. 加強 AI 監(jiān)管使人們關注支持道德 AI 的工具
歐盟人工智能法案。美國數(shù)據(jù)隱私和保護法。保護開源軟件法案。圍繞人工智能的擬議法規(guī)數(shù)量正在迅速增加,這表明公司自行監(jiān)管其 AI/ML 項目(或根本不監(jiān)管)的時代即將結束。Gartner預測,到 2025 年,法規(guī)將迫使公司關注 AI 道德、透明度和隱私。
建議:公司必須確保他們擁有企業(yè)模型管理工具以滿足新的監(jiān)管要求,例如“算法設計評估”和“算法影響評估”。這意味著能夠跟蹤和報告模型是如何創(chuàng)建、訓練、測試、部署、監(jiān)控和管理的。如果你沒有適當?shù)牡赖挛瘑T會來監(jiān)督 AI/ML,現(xiàn)在是時候建立一個,在監(jiān)管機構來敲你的門之前。
3.模型管理成為機器學習的重心
機器學習工具仍然高度分散。這帶來的挑戰(zhàn)之一是,迄今為止,不同的利益相關者(從業(yè)者、管理層、風險和 IT)還沒有對端到端 ML 生命周期有一個共同、統(tǒng)一的看法。但現(xiàn)在,模型管理平臺將提供一個重心,將圍繞實驗、生產(chǎn)、機器學習數(shù)據(jù)和編排的獨立工具捆綁在一起。實際上,模型管理平臺成為企業(yè)管理所有 AI/ML 的控制塔。
建議:對機器學習采取整體方法,并考慮如何在整個模型生命周期中管理模型。您的 ML 工具是否具有可讓您端到端管理模型的重心?識別并填補實驗、生產(chǎn)、ML 數(shù)據(jù)和編排工具中的空白,同時實施模型管理平臺,使您能夠查看和控制整個模型生命周期。
4. 公司建立機器學習平臺團隊以確保關鍵業(yè)務模型順利運行
認真對待實時機器學習的公司將組建一個 ML 平臺團隊,以確保他們的模型與其他關鍵業(yè)務應用程序具有相同的高可靠性和可用性。ML 平臺團隊組裝、管理和改進工具,使模型在生產(chǎn)中順利運行。挑戰(zhàn)在于尋找并雇用具備擔任該職位所需的技術和軟技能的“獨角獸”。
建議:您無需聘請數(shù)十名平臺工程師即可開始。只需一兩個工程師即可開始構建您的 ML 平臺團隊。(注意:希望提升技能水平的 DevOps 工程師可能是不錯的候選人。)為團隊配備一套良好的可操作 AI 工具,以快速提高 AI/ML 項目的性能,然后在這些成功的基礎上再接再厲。
5. 機器學習產(chǎn)業(yè)化推動機器學習流程標準化
通常,在 AI/ML 在大型組織中扎根的地方,我們看到孤立的數(shù)據(jù)科學團隊分布在不同的業(yè)務部門,每個部門都有自己的工具和流程。當 ML 處于小規(guī)模、定制項目的手工階段時,這是可行的。但是,當一家公司將 ML 用于工業(yè)規(guī)模的面向客戶的應用程序時,治理就變得必不可少,而治理需要具有制衡機制的標準化流程來提高效率,同時降低風險。
建議:首先確定一個小組來領導整個公司的 ML 標準化。這可以是企業(yè)架構組、數(shù)據(jù)科學卓越中心或 ML 平臺團隊。該小組的任務是創(chuàng)建企業(yè)范圍的標準,以實現(xiàn) ML 的快速和大規(guī)模,但有確保遵循正確流程并將風險降至最低的護欄。
6. 生成式人工智能席卷創(chuàng)意藝術,引發(fā)道德和欺詐問題
穩(wěn)定擴散、“文本到圖像”和其他生成式人工智能背后的技術吸引了大量風險投資。與用于文本生成的 GPT-3 一起,穩(wěn)定的擴散代表了一個階段性的變化,加速了創(chuàng)造性工作并開辟了新的表達途徑。但鑒于這些技術能夠大規(guī)模創(chuàng)建虛假內(nèi)容,因此引發(fā)了倫理問題。
建議:了解這項技術的人需要帶頭確保將道德融入生成式人工智能用例中。此外,依賴客戶數(shù)字輸入的公司應該考慮生成式人工智能如何為欺詐開辟新途徑——比如提交保險索賠的汽車損壞的偽造圖像——并制定加強欺詐檢測以降低風險的戰(zhàn)略。
正如上述趨勢所表明的那樣,隨著技術的成熟和公司發(fā)現(xiàn)將 AI 融入智能產(chǎn)品和服務的創(chuàng)新方法,AI 正在迅速發(fā)展。沒有任何組織能夠幸免于 AI 的變革性影響,高管們現(xiàn)在就應該開始確保他們的公司為 AI 驅(qū)動的未來做好準備。