自主式AI落地指南:CIO需關注的五大問題
隨著技術的不斷發展,自主式AI正逐漸成為企業數字化轉型的重要推手。然而,如何確保AI的安全、有效應用,卻成為了眾多CIO面臨的難題。本文將圍繞五大關鍵問題,為CIO提供一份自主式AI落地指南。
每晚,當紐約大學格羅斯曼醫學院(NYU Grossman School of Medicine)和紐約大學格羅斯曼長島醫學院(NYU Grossman Long Island School of Medicine)的大多數醫學生都在睡覺時,AI正在為他們忙碌地工作。
一款AI應用會從紐約大學朗格尼健康系統(NYU Langone Health system)下屬6家住院醫院和300多家門診地點獲取匿名診斷代碼,將它們與相關研究和診斷信息相匹配,并及時將結果通過電子郵件發送給醫學生,供他們晨起時查閱。
該平臺是自主式AI的一個例子,即能夠自主決策和行動的AI系統。
“這實際上并不是改變AI本身,而是改變其周邊組件,以便讓該AI能夠做出更相關的決策。”英國網絡安全咨詢和托管服務提供商NCC集團的技術總監大衛·布勞克勒(David Brauchler)說道。
但自主式AI只有在安全、維護良好且應用于合適的用例時才能發揮作用。以下是CIO在部署該技術之前應該提出的五個問題。
自主式AI將解決什么問題?
紐約大學朗格尼健康系統的高級副總裁、副院長兼首席數字信息官納德·默哈比(Nader Mherabi)表示,當公司開始部署AI時,應該制定一個戰略計劃,以確保將正確的技術應用于正確的用例。“AI不能脫離工作流程,否則人們不會使用它。”
紐約大學朗格尼健康系統有一系列使用不同模型的AI相關項目。對于將病例與研究相匹配而言,智能體是一個合理的選擇,因為它是一個相對直接的用例,能夠產生高度有益的結果,默哈比說道。
“它訪問和編譯數據的方式非常強大,能夠從中得出醫學知識,然后為學生提供個性化的學習資料,”默哈比說道。“它幾乎可以自主運行,”默哈比表示。
該代理不會接觸高度敏感且受到嚴格監管的患者數據,這使得AI的使用風險較低。信息與患者就診情況斷開連接,并在紐約大學朗格尼健康系統的安全網絡中運行。
我們是否有讓其發揮作用的數據?
Gartner的高級總監分析師湯姆·考紹(Tom Coshow)表示,只有當AI擁有正確的數據,且這些數據得到妥善處理時,智能體才會有效。
數據還必須與確切的用例對齊。否則,智能體將從不該提取AI的地方提取,這可能會導致錯誤答案,或者在最壞的情況下,讓員工訪問到他們不該看到的數據。
數據也需要維護,這需要合適的人才,考紹表示。“數據專家這一新興領域將擅長以智能體友好的方式維護數據,”考紹說道。
數據是否安全?
除了確保員工不會訪問到他們不該獲取的信息外,組織還應考慮自主式AI可能帶來的安全風險。
“您在應用程序環境或網絡中添加的所有內容都是必須管理的額外攻擊面。”NCC集團的布勞克勒說道。
在考慮將AI添加到未考慮AI或AI相關風險的系統和平臺時,公司應進行安全測試。NCC集團最近測試了一個平臺,發現它可以通過添加隱藏文本來操縱系統。
“由于該平臺并非為AI而設計,因此在其系統中創建了一個以前不存在的漏洞。”布勞克勒說道。
安全采用需要擁有經過AI培訓的工程師,他們可以準備和管理風險。否則,“您實際上是在增加攻擊面,而沒有擁有解決AI特定風險的經驗的工程師,”他補充道。
自主式AI在公司技術戰略中處于什么位置?
并非所有自主式AI都是相同的,因此CIO需要詢問哪些平臺在整體技術戰略的背景下是合適的。
“我是只在我的云服務提供商中構建,還是要尋找擁有特殊行業技能的初創公司?”考紹問道。
CIO還應詢問他們能接受多少個自主式AI系統,以及如果他們在不同的平臺上運行,他們是否有能力監控所有代理。
紐約大學朗格尼健康系統是分階段開展AI相關項目的。這可能意味著創建較小的自主式智能體,這些代理可以像樂高積木一樣連接成一個更大的整體。默哈比表示,這樣,如果一個代理不工作,就可以將其拔出并修復,而不必拆除整個操作。
如何監控自主式AI?
自主式AI不是一種設置好后就可以忘記的應用程序。相反,它需要持續監控,以確保數據的準確性、使用恰當性以及最終用戶的利益。
默哈比表示,使用自主式AI的應用程序“需要持續維護”。
自去年部署以來,通過密切監控,該衛生系統的自主式AI應用程序能夠繼續為醫學生提供定制信息。它實現了用例目標,并繼續發揮作用。
“我想,孩子們早上起床,登錄門戶,就能看到相關材料,這很不錯。”默哈比說道。“誰不喜歡呢?”