蘋果已經(jīng)掃描iCloud郵件中的CSAM 但沒有掃描iCloud照片
蘋果已經(jīng)證實,它從2019年開始就一直在掃描iCloud郵件中的CSAM,并且一直在這樣做。但是,它沒有掃描iCloud照片或iCloud備份。
該公司反欺詐主管之前發(fā)布了一項頗為奇怪的聲明,表示蘋果是“傳播兒童色情的最佳平臺”。這立即引發(fā)了一個問題,如果該公司沒有掃描iCloud照片,它怎么會知道這一點?還有一些其他的線索表明蘋果在進行某種CSAM掃描。
蘋果兒童安全頁面的存檔版本中這樣表示:“無論我們的產(chǎn)品在哪里使用,蘋果都致力于保護我們生態(tài)系統(tǒng)中的兒童,我們將繼續(xù)支持這一領域的創(chuàng)新。我們在軟件平臺的各個級別以及整個供應鏈中開發(fā)了強大的保護。作為這一承諾的一部分,蘋果使用圖像匹配技術來幫助發(fā)現(xiàn)和報告兒童被利用的情況。就像電子郵件中的垃圾郵件過濾器一樣,我們的系統(tǒng)使用電子簽名來查找可疑的兒童剝削。我們通過單獨審查來驗證每個匹配。含有兒童剝削內容的帳戶違反了我們的服務條款和條件,任何使用此材料的帳戶都將被禁用。”
此外,該公司首席隱私官在2020年1月也說過同樣的話。蘋果公司首席隱私官簡·霍瓦思(Jane Horvath)在一次技術會議上說,該公司使用屏蔽技術尋找非法圖像。該公司表示,如果蘋果發(fā)現(xiàn)兒童剝削材料的證據(jù),它將禁用賬戶,但沒有具體說明如何發(fā)現(xiàn)。蘋果自己表示從未掃描過iCloud的照片。
然而,蘋果證實,自2019年以來,它一直在掃描iCloud郵件中發(fā)送和接收的CSAM附件。電子郵件未加密,因此在郵件通過蘋果服務器時掃描附件將是一項微不足道的任務。蘋果還表示,它正在對其他數(shù)據(jù)進行一些有限的掃描,但不愿告訴那是什么,只是暗示這只是一個小規(guī)模的掃描。它確實表示,其他數(shù)據(jù)不包括iCloud備份。
蘋果每年向CSAM提交的報告總數(shù)是數(shù)百份,這意味著電子郵件掃描不會為蘋果服務器上的大規(guī)模問題提供任何形式的證據(jù)。原因可能在于其他云服務正在掃描CSAM的照片,而蘋果沒有。如果其他服務禁用了上傳CSAM的帳戶,而iCloud照片沒有(因為蘋果沒有掃描),那么邏輯推斷是蘋果平臺上的CSAM比其他任何地方都多。
對蘋果公司CSAM計劃的爭議仍在繼續(xù),兩位普林斯頓大學的學者表示,他們根據(jù)與蘋果公司完全相同的方法設計了一個掃描系統(tǒng)的原型,但由于政府濫用的風險而放棄了這項工作。