如何監管像ChatGPT和Bard這樣的生成式AI機器人?
研究表明,通用人工智能工具的廣泛應用為監管機構帶來新的挑戰,他們可能難以應對。實際上,如何監管OpenAI的聊天機器人ChatGPT這樣的生成式AI工具,已經成為一個困擾世界各國政策制定者的問題。
ChatGPT可以通過關鍵字生成任何類型的內容,并接受輸入大量知識的訓練。其解決方案將涉及評估風險,尤其是其中的某些內容,應該受到嚴密的監控。
在ChatGPT推出后的兩個月,這款AI聊天機器人就成為了歷史上用戶增長最快的消費產品,僅在今年1月的活躍用戶就超過1億人。這促使全球大型科技公司關注或加快AI系統的推出,并為對話式AI領域帶來了新的生機。
微軟正在其瀏覽器、搜索引擎和更廣泛的產品系列中嵌入對話式AI;谷歌計劃在聊天機器人Bard以及Gmail和谷歌云中的其他集成方面做同樣的事情;百度等其他科技巨頭也在推出自己的聊天機器人;Jasper和Quora等初創企業也在將生成式AI和對話式AI帶入主流消費者和企業市場……
生成式AI加速監管需求
廣泛的錯誤信息和難以發現的網絡釣魚電子郵件為AI的應用帶來真正風險,如果將其用于醫療信息,則會導致誤診和醫療事故。如果用于填充模型的不是多樣化的數據,也有很高的偏差風險。
雖然微軟已經有了一個更準確的重新訓練的模型,而且AI21公司等提供商正在努力驗證生成的內容與實時數據的對比,但生成AI“看起來真實但完全不準確”的響應的風險仍然很高。
歐盟內部市場專員Thierry Breton近日表示,即將出臺的歐盟AI法案將包括針對ChatGPT和Bard等生成型AI系統的條款。
“正如ChatGPT所展示的那樣,AI解決方案可以為企業和公民提供巨大的機會,但也可能帶來風險。這就是為什么我們需要一個堅實的監管框架,以確保基于高質量數據的值得信賴的AI。”他說。
AI開發需要合乎道德
分析軟件提供商SAS在一份名為《AI與負責任創新》報告中概述了AI帶來的一些風險。報告的作者Kirk Borne博士說:“AI已經變得如此強大、如此普遍,以至于越來越難以分辨其生成內容的真假和好壞。采用這項技術的速度明顯快于監管的步伐。”
SAS英國和愛爾蘭地區數據科學主管Iain Brown博士表示,政府和行業都有責任確保AI被用于有益而非有害的方面。這包括使用道德框架來指導AI模型的開發,并嚴格治理,以確保這些模型做出公平、透明和公平的決策。我們可以將AI模型與挑戰者模型進行對比,并在新數據可用時對其進行優化。”
其他專家認為,軟件開發商將被要求降低軟件所代表的風險,只有風險最高的活動才會面臨更嚴格的監管措施。
美國瑞格律師事務所(Ropes&Gray)數據、隱私和網絡安全助理Edward Machin表示,像ChatGPT這樣看似一夜之間出現的技術,其應用速度將快于監管法規,這是不可避免的情況,尤其是在AI這樣已經很難監管的領域。
他表示:“盡管對這些技術的監管政策將會出臺,監管方法和監管時機仍有待觀察。AI系統的供應商將會首當其沖,但進口商和分銷商(至少在歐盟)也將承擔潛在的義務。這可能會使一些開源軟件開發者陷入困境。開源開發者和其他下游各方的責任將如何處理,可能會對這些人進行創新和研究的意愿產生寒蟬效應。”
版權、隱私和GDPR法規
此外Machin認為,除了對AI的整體監管之外,關于其生成內容的版權和隱私也存在問題。例如,目前尚不清楚開發人員是否能夠輕松地(如果有的話)處理個人的刪除或更正請求,也不清楚他們如何能夠以一種可能違反第三方網站服務條款的方式從他們的網站抓取大量數據。
在艾倫·圖靈研究所從事AI監管工作的紐卡斯爾大學法律、創新和社會專業的教授 Lilian Edwards表示,其中一些模型將受到GDPR法規的監管,這可能會導致發布刪除訓練數據甚至算法本身的命令。如果網站所有者失去了AI搜索的流量,這也可能意味著從互聯網大規模抓取數據的終結,目前這種抓取是谷歌等搜索引擎的發展動力。
他指出,最大的問題是這些AI模型的通用性質。這使得它們難以根據歐盟AI法案進行監管,該法案是根據面臨的風險起草的,因為很難判斷最終用戶將用這項技術做什么。歐盟委員會正試圖增加規則來管理這類技術。
加強算法透明度可能是一種解決方案。Edwards說:“大型科技公司將開始游說監管機構,他們說,‘你們不能把這些義務強加給我們,因為我們無法想象未來的每一種風險或用途’。有一些處理這個問題的方法對大型科技公司或多或少有所幫助,包括讓底層算法更加透明。我們正處在困難時刻,需要獲得激勵措施朝著開放和透明的方向發展,以便更好地理解AI如何做出決策和生成內容。”
她還說:“這和人們在使用更無聊的技術時遇到的問題是一樣的,因為技術是全球性的,而居心不良的人無處不在,因此進行監管非常困難。通用AI的行為很難匹配AI法規。”
AI咨詢服務商DragonFly首席技術官Adam Leon Smith表示:“全球監管機構越來越意識到,如果不考慮AI技術的實際使用情況,就很難監管。準確度和偏差要求只能在使用的背景下考慮,在大規模采用之前,也很難考慮到風險、權利和自由要求。”
“監管機構可以強制要求AI技術提供商提供透明度和日志記錄。然而,只有為特定目的而操作和部署大型語言模型(LLM)系統的用戶才能了解風險,并通過人工監管或持續監控實施緩解措施。”他補充道。
AI監管迫在眉睫
歐盟委員會內部曾經對于AI監管進行了大規模辯論,數據監管機構對此必須認真應對。最終,Leon Smith認為,隨著監管機構越來越關注這一問題,AI提供商將開始列出“不得使用”該技術的目的,包括在用戶登錄之前發布法律免責聲明,將其置于基于風險的監管行動范圍之外。
Leon Smith稱,目前管理AI系統的最佳實踐幾乎沒有涉及大型語言模型,這是一個發展極其迅速的新興領域。而在這個領域有很多工作需要做,很多公司提供這些技術并沒有幫助定義它們。
OpenAI首席技術官Mira Muratti也稱,生成式AI工具需要受到監管,“對于我們這樣的公司來說,以一種可控和負責任的方式讓公眾意識到這一點很重要。” 但她也表示,除了監管AI供應商之外,還需要對AI系統進行更多的投入,包括來自監管機構和政府的投入。”