《新一代人工智能倫理規范》發布:融入人工智能全生命周期,關注數據隱私安全與算法倫理
9月26日,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》(以下簡稱“《規范》”),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引。
早在今年1月5日,全國信息安全標準化技術委員會發布了《網絡安全標準實踐指南—人工智能倫理安全風險防范指引》(以下簡稱“《指引》”),表示相關組織或個人在開展人工智能研究開發、設計制造、部署應用等相關活動時,應充分識別、 防范、管控人工智能倫理安全風險。
相較于《指引》,本次出臺的《規范》對隱私保護與數據安全進行了更為詳細的闡述,同時對算法偏見等技術倫理問題也給予了關注。
重視數據與隱私安全,強調算法倫理
《規范》提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等6項基本倫理要求。其中,數據與隱私安全內容貫穿了人工智能管理、研發、供應等特定活動的具體倫理要求。
《規范》指出,人工智能各類活動應充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。
在管理方面,要充分尊重并保障相關主體的隱私、自由、尊嚴、安全等權利及其他合法權益,禁止權力不當行使對自然人、法人和其他組織合法權益造成侵害。
在研發方面,要提升數據質量,在數據收集、存儲、使用、加工、傳輸、提供、公開等環節,嚴格遵守數據相關法律、標準與規范,提升數據的完整性、及時性、一致性、規范性和準確性等。
在供應方面,要強化人工智能產品與服務的質量監測和使用評估,避免因設計和產品缺陷等問題導致的人身安全、財產安全、用戶隱私等侵害,不得經營、銷售或提供不符合質量標準的產品與服務。
算法倫理也是本次規范的關注重點之一。《規范》在“研發規范”中明確提出,在數據采集和算法開發中要避免偏見歧視,加強倫理審查,充分考慮差異化訴求,避免可能存在的數據與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性。同時,要增強安全透明,在算法設計、實現、應用環節提升透明性、可解釋性、可理解性、可靠性、可控性,增強人工智能系統的韌性、自適應性和抗干擾能力,逐步實現可驗證、可審核、可監督、可追溯、可預測、可信賴。
技術倫理與數據安全成市場監管重點
近年來,人工智能倫理治理問題日益引發關注,數據安全與算法倫理合規一直是我國人工智能產業的關注焦點,相關制度正在不斷完善之中。
2021年7月14日,深圳市人大常委組織部起草的《深圳經濟特區人工智能產業促進條例 (草案) 》要求人工智能企業“設立倫理風險崗位”,“履行倫理審查和風險評估職責”,并明確規定開展人工智能研究和應用活動中禁止侵犯個人隱私和個人信息保護、損害國家安全和社會公共利益、算法歧視等一系列行為。
2021年7月28日,科技部發布《關于加強科技倫理治理的指導意見 (征求意見稿) 》,明確了倫理先行、敏捷治理等基本要求,并提出了五項科技倫理原則,要求“從事生命科學、醫學、人工智能等科技活動的機構,研究內容涉及科技倫理敏感領域的,應設立科技倫理 (審查) 委員會”
此外,《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》于今年6月和8月相繼出臺,數據和信息安全重要性被前所未有地強調。政策風向之下,AI企業在融資上市的時候也越來越重視數據安全與算法倫理的合規問題。
在過去的一年里,依圖、曠視、云從、海天瑞聲、云天勵飛等“AI概念股”扎堆涌向IPO,數據合規及科技倫理均是審核關注的焦點。今年5月,在曠視科技IPO過程中,上交所首次對科技倫理進行了問詢,要求曠視披露公司在人工智能倫理方面的組織架構、核心原則、內部控制及執行情況。而云從科技曾因財務資料過期而一度被中止發行上市審核,依圖科技已撤回申請,其發行上市審核現已終止。
監管力度加大的背景下,近日, “AI四小龍”之一的商湯科技提交港股上市招股書,并在招股書中設有專章詳盡披露了隱私與AI治理環節,說明其在業務中如何做到數據隱私及個人信息保護,并稱將遵循三項人工智能倫理原則:可持續發展原則、以人為本原則和技術可控原則。
浙江墾丁律師事務所創始合伙人王瓊飛在此前接受21記者采訪時曾表示,對于AI產業及科技公司來說,短期來看,鑒于數據合規、AI治理均將耗費大量的精力與成本;但從中期看,上市科技公司主動對個人隱私、AI治理工作進行披露,無疑將對其他企業起到示范以及指引作用,從而減輕數據標準化以及降低數據治理的工作量;從長期來看,此舉亦將加速AI行業的健康發展,在尊重和保護個人隱私的前提下,逐步實現人工智能創新與監管的平衡狀態
(作者:實習生王祎琛,見習記者吳立洋 編輯:曹金良)