生成型AI可能帶來的五個風險,你知道幾個?
如今,像ChatGPT這樣的生成型AI已經徹底改變了我們與AI互動的方式。寫作、編碼和求職等活動變得更容易、更快。然而,有了所有的積極因素,也存在一些相當嚴重的風險。
人工智能的一個主要問題是信任和安全,這甚至導致一些國家全面禁止ChatGPT,或重新考慮圍繞人工智能的政策,以保護用戶免受傷害。
Gartner分析師Avivah?Litan表示,生成人工智能的一些最大風險涉及信任和安全,包括幻覺、深度偽造、數據隱私、版權問題和網絡安全問題。
1、幻覺
幻覺是指AI模型容易犯的錯誤,因為盡管它們是先進的,但它們仍然不是人類的,并且依賴訓練和數據來回復答案。
Litan表示,訓練數據可能會導致有偏見或事實上不正確的反應,當人們依賴這些機器人獲取信息時,這可能是一個嚴重的問題。“訓練數據可能會導致有偏見、偏離基礎或錯誤的反應,但這些反應可能很難發現,尤其是在解決方案越來越可信和可靠的情況下。”
2、深度偽造(Deepfake)
使用生成式AI來創建偽造的視頻、照片和錄音,但會拍攝另一個人的圖像和肖像。
Litan指出,這些虛假的圖像、視頻和錄音被用來制造和傳播誤導性信息,甚至制造虛假賬戶,或者接管和侵入現有的合法賬戶。
3、數據隱私
隱私也是生成式AI的一個主要風險,因為用戶數據通常被存儲用于模型訓練。
“員工在與生成式AI聊天機器人解決方案交互時,可以很容易地暴露敏感和專有的企業數據,”Litan表示,“這些應用程序可能會無限期地存儲通過用戶輸入捕獲的信息,甚至使用信息來訓練其他模型,這進一步損害了機密性。”
4、網絡安全
生成式AI模型的高級功能,如編碼,也可能落入壞人之手,引發網絡安全問題。
Litan認為,除了更先進的社會工程和網絡釣魚威脅外,攻擊者還可以使用這些工具來更容易地生成惡意代碼。
5、版權問題
版權是一個很大的問題,因為生成人工智能模型是在用于生成輸出的大量互聯網數據上訓練的。這種訓練過程意味著,原始源未明確共享的作品可以用于生成新內容。為了根據提示創建圖像,DALL-E等人工智能生成工具將參考他們訓練過的大型照片數據庫。這一過程的結果是,最終產品可能包括藝術家作品或風格中不屬于他們的方面。