謹慎采用人工智能的最佳實踐
為了助力我們正確運用人工智能,以下提供幾點建議,在實踐使用人工智能時需謹記這些建議,以便您能夠牢固掌舵,安全駕馭人工智能。
譯自Treading Carefully: Best Practices When Adopting AI,作者 Tim Banks 是Dell Technologies的首席開發者倡導者。他在技術行業擁有超過25年的經驗。Tim的技術之路始于美國海軍陸戰隊,他最初加入是為了成為一名音樂家。后來他被重新分配到航空電子學......
人類創新的普遍特征是使我們能夠比以往更快地在更大規模上出錯。我們可以更快地制造有缺陷的東西。我們可以開車更快。我們可以在幾分鐘內破壞整個自然生態系統。我們可以用一條推文破壞世界的金融穩定。我們可以通過按幾個按鈕消滅地球表面所有的生命。
這一認識對于認識使用新的 AI 項目的熱情可能帶來的災難風險至關重要。我們距離實現真正的 AI 意識還有(希望是)一代人的時間。然而,意識的基本要素現在正在開發。主要的擔憂是這些要素目前充滿了偏見和錯誤。例如,面部識別無法區分有色人種。生成式圖像 AI 在數據集中沒有此類輸入的情況下會產生不適當的輸出。大型語言模型(LLM)會編造答案,稱為“幻覺”,或產生包含已知錯誤的結果。
除了技術本身的缺陷之外,我們并不是總是以安全的方式使用技術。用戶正在查詢或數據集中輸入敏感數據。用戶已經開始依賴AI生成他們沒有經驗審核的答案。一些方面正在創建深度偽造來幫助他們進行誤導性宣傳。其他人正在使用深度偽造在未經被利用者知情或同意的情況下濫用他們的肖像。而且,由于這些技術的發展勢頭,組織正在優先考慮提高AI的采用和變現,而不是先解決這些問題。
我們還沒有對AI對社會或我們周圍的世界的長期影響有清晰的認識。我們還沒有制定任何監管標準來為這些技術的創造和使用設置護欄。我們無法透明地了解某些AI模型是如何做出決定的。我們尚未對日益增長和計算復雜度更高的數據集的存儲和計算需求的生態影響進行充分研究。我們還沒有關于AI結果中受保護財產的包含的法規。我們還沒有解決濫用AI或編造結果的責任問題。當涉及到我們當前AI努力的長期影響和結果時,我們正在闖入一個盲區。如果我們不及時踩剎車,在建立護欄之前,我們可能會看到峽谷的底部!
考慮到所有這些有效的擔憂,AI正在越來越多的領域和產品中被采用,這種情況不太可能改變。有幾家大型科技公司都在開展競爭性項目和產品,爭相成為首選的AI。無論我們怎么努力,我們都無法抵御流入AI的資金潮流。然而,我們可以通過在實踐和產品中思考選擇和使用AI來駕馭這種潮流。為了幫助我們導航,這里有一些關于你的AI實踐和使用的考慮,這些考慮應該可以幫助你安全地駕馭這片水域:
- 永遠不要向模型或聊天機器人輸入個人身份識別信息(PII)、憑據、機密或其他敏感信息: 這應該是不言自明的,但在這方面已經發生過事故。信息如果公開可用就視為可以輸入模型和聊天機器人。
- 使用AI照片編輯器時要謹慎: 要意識到潛在的風險,如錯誤信息的傳播、版權和知識產權問題以及數據隱私問題。
- 在使用AI工具提供的數據之前,一定要驗證數據的準確性: 一定要仔細檢查從AI工具獲得的數據,以確保其準確性。在未經驗證的情況下接受一個答案的正確性可能會對您的業務產生持久影響。
- 了解AI應用程序格局: 了解AI的不同應用,并選擇最符合您需求的應用。AI領域沒有供應商短缺的問題,選擇困難癥是真實存在的。為您的用例選擇合適的供應商不是一個應該輕視的決定。
- 數據準備和管理: 確保您使用的數據準確、相關并且是最新的。當心將自己的錯誤輸入模型和數據毒化。
- 為您的特定用例選擇合適的算法和模型。這將避免您在建模和呈現數據時“海納百川”。
- AI開發服務: 使用可靠并有良好記錄的開發服務。
- 訓練和評估: 定期訓練和評估AI模型,以確保它們是最新和準確的。它們是否一致地產生您想要的結果?錯誤出現的頻率如何以及這些錯誤的性質是什么?
- 部署和可擴展性: 確保AI模型可以有效和可持續地部署和擴展。收集有關可持續性和建模以及AI使用的環境影響的指標,這將幫助您對其使用做出更好的決定。
- 倫理和隱私考量: 確保AI模型是道德的并尊重用戶隱私。雖然這很模糊,但如果您的組織為AI倫理建立原則來指導您的實踐會有所幫助。
AI來勢洶洶,我們有責任以一種安全、道德和可持續的方式將其融入我們的世界。