2022 年互聯網隱私方面的一些趨勢預測
網絡聊天不僅僅是為了娛樂或與朋友聊天,這是支撐著我們社會最基本的功能,例如物流、政府服務和銀行業務。消費者通過即時通訊工具與企業聯系并訂購外賣,而不是去實體店,科學會議在虛擬會議平臺上舉行,遠程工作成為越來越多行業的新常態。
網絡上的這些行為都涉及到隱私,隱私保護技術是今年討論最多的話題之一,盡管對某些看法還存在分歧,例如對NeuralHash 或Federated Learning of Cohorts的使用。有研究人員通過逆向編譯,發現蘋果用于檢測 iCloud 照片中是否存在兒童性虐待材料 (CSAM) 的 NeuralHash 算法存在漏洞,可能會被黑客利用;年初,谷歌公布了一種新的 API,名叫 Federated Learning of Cohorts (FLoC),該 API 有望在 Chrome 瀏覽器上取代 Cookie。FLoC 使用機器學習算法來分析用戶數據,然后根據個人訪問的站點創建人群的集合。廣告商不會獲得用戶的本地數據,而是直接獲得更廣泛的人群畫像,從而進行廣告投放。然后谷歌的這一改進卻引起了諸多批評。盡管如此,網絡隱私還是在不斷在向前邁進,比如蘋果已經公開回應,為打消用過戶的顧慮,將對Siri進行一些更改。
在默認情況下,將不再保留Siri互動的錄音,另外,Android 12還有一個Android隱私運算核心(Android Private Compute Core),把特定功能的數據處理維持在設備上,像是即時字幕、可查詢附近所播放音樂的Now Playing,以及智慧回覆(Smart Reply)等,以保障用戶隱私;最近隱私瀏覽器Brave開發公司Brave Software近日宣布與美國加州大學圣地亞哥分校合作提出一種解決方案SugarCoat,允許在不犧牲網絡規模兼容性的情況下改善隱私。
SugarCoat通過自動創建跟蹤庫的隱私保護實現,以幫助解決這種隱私與兼容性的權衡。據悉,Brave將于今年第四季度開始向Brave瀏覽器用戶推出SugarCoat生成的腳本,此外還會與流行內容攔截工具的維護者合作,以便這些工具可以增強用戶隱私。
另外,我們還看到了許多新的私人服務,許多專注于隱私的公司邁出了貨幣化的第一步,并且在 iOS 和 Android 上都在技術和營銷方面大力推動隱私。 Facebook(現在的 Meta)也開始為用戶提供更多隱私,在 WhatsApp 中提供端到端的加密備份,并從 Facebook 中完全刪除面部識別系統。
雖然我們希望 2022 年是大流行的最后一年,但我們認為隱私趨勢不會逆轉。這些過程會產生什么后果?在這里,我們提出了一些關于哪些關鍵力量將在 2022 年塑造隱私格局的想法。
BigTech(大型科技企業)將為人們提供更多的工具來保護他們的隱私
今年4月,蘋果頂著Facebook的激烈反對,強硬調整隱私政策推行了ATT,所有App Store上架的App都必須遵守這一新政策,即App開發者需要征得用戶許可,才能跟蹤用戶或訪問其設備的IDFA(Identifier for Advertising,廣告標識)。
簡而言之,App要想獲得及處理蘋果用戶的數據,必須征得同意。
毫無疑問,這一新政當然會獲得那些在乎個人數據安全及隱私的用戶的歡迎,而Facebook則是其最大的反對者。
如果無法便利地追蹤用戶行為,Facebook的廣告推送將不再那么精準。蘋果公司軟件工程高級副總裁克雷格·費德里吉(Craig Federighi)曾用8秒鐘一句話概述了蘋果隱私新政ATT到底是什么:ATT給予用戶是否愿意被App和網站追蹤的選擇權。今年的Facebook可謂困難重重。一邊是被蘋果的隱私新政處處掣肘,還因各種數據和青少年保護問題被美國國會和各行政部門反復摩擦,而另一邊它自己也在尋求變化。
由于公司必須在全球范圍內遵守更嚴格和更多樣化的隱私法規,因此他們為用戶提供了更多工具來控制他們在使用服務時的隱私。有了更多的設置,有經驗的用戶或許可以根據自己的需要設置隱私。對于不太懂電腦的人,不要指望默認隱私設置可以保護你的隱私:即使在法律上有義務默認提供隱私,那些靠數據收集為底線的企業也會繼續尋找漏洞誘使人們選擇較少隱私的設置。
隨著政府建立自己的數字基礎設施,讓更簡單和更廣泛地獲得政府服務,并希望提高透明度和問責制,以及對人口的更深入了解和對其進行更多控制,難怪他們會對通過大型商業生態系統傳遞的有關本國公民的數據表現出更大的興趣。這將導致更多的監管,如隱私法、數據本地化法,以及對哪些數據和何時可被執法人員訪問的更多監管。蘋果CSAM掃描隱私難題恰恰表明,一方面要找到加密和用戶隱私之間的平衡,另一方面要找到犯罪行為之間的平衡是多么困難。近日,中國發布了《網絡數據安全管理條例(征求意見稿)》,對數據存儲、數據流通、數據使用等數據合規問題進行約束?!墩髑笠庖姼濉肪o密貼合當下網絡數據安全管理熱點,在數據分級、數據“出海”、大數據殺熟、身份認證、信息泄露報備等方面給予了詳細的指導意見。另外,中國還先后發布了《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》。
數據保護和機器學習的矛盾將繼續存在
現代機器學習通常需要訓練具有驚人數量參數的巨大神經網絡(雖然這并不完全正確,但人們可以將這些參數視為大腦中的神經元),有時達到數十億的數量級。多虧了這一點,神經網絡不僅可以學習簡單的關系,還可以記住整塊數據,這可能導致私人數據和受版權保護的材料泄露或導致社會偏見。此外,這導致了一個有趣的法律問題:如果機器學習模型是使用我的數據訓練的,我是否可以(例如,在 GDPR 下)要求消除我的數據對模型的所有影響?如果答案是肯定的,這對數據驅動的行業意味著什么?一個簡單的答案是,公司必須從頭開始重新訓練模型,這有時可能代價高昂。這就是為什么我們期待更有趣的發展,無論是在防止記憶的技術方面,還是在使研究人員能夠從已訓練的系統中刪除數據的技術方面。
機器學習算法的透明度是一把雙刃劍
復雜的算法,例如機器學習,越來越多地影響我們的決策,從信用評分到人臉識別再到廣告。
隨著大數據、云計算、人工智能等技術疊加發展,人工智能倫理和算法公平的問題亦逐漸受到關注。大數據殺熟,電商平臺有償搜索、有償排名,個人信息精準推算引發的算法歧視,短視頻和游戲行業的“成癮”機制等問題逐步引發了輿論的廣泛關注。公眾認識到“算法”不僅被用來對消費者的喜好進行畫像,在一定程度上還參與了勞動秩序和規則的制定,參與社會治理。因此,“算法”是否公平不僅僅是某個平臺和企業的內部管理問題,還涉及公共利益。
雖然有些人可能喜歡個性化,但對其他人來說,這可能會導致令人沮喪的經歷和歧視。想象一個在線商店,它根據一些模糊的LTV(終身價值)預測算法將其用戶劃分為更有價值和更低價值的用戶,并為更有價值的用戶提供實時的客戶支持聊天,而將不那么幸運的用戶留給一個遠遠不夠完美的聊天機器人
“宅”家辦公所帶來的個人和企業隱私問題將會持續存在
隨著疫情的發展,企業紛紛發出遠程辦公的倡議,特別是高科技企業更是如此,現在,Facebook、Twitter、Okta和Box等科技公司宣布將更永久性地轉向混合辦公的模式轉換。“宅”家辦公期間,企業將高度依賴第三方辦公平臺進行公司的日常運營,以及核心會議與相關決策。一旦所選擇的平臺有風險,公司的商業機密以及關鍵資料均存在泄漏可能,嚴重時將危害公司生存與發展的命脈。
企業遠程辦公時的最大擔憂,就是關鍵數據庫內容有可能丟失或被不軌方竊取,造成用戶數據、運營決策、商業機密外泄等嚴重隱私問題。從員工角度來講,他們在家里的一舉一動受到跟蹤,這又似乎侵犯了他們的隱私。為應對遠程辦公,員工被戴上了“數字枷鎖”。當人們在家工作時,采用攝像頭監控其辦公情況這一行為可能存在很大問題。攝像頭可能會捕捉到員工的家人或同住者的畫面,意味著他們的隱私會遭到侵犯。有些公司使用人工智能和算法等工具來跟蹤員工和他們全天的工作,甚至是面部識別,以確保員工確實是在坐在辦公桌前辦公。
本文翻譯自:https://securelist.com/privacy-predictions-2022/104912/