開發者發現蘋果 CSAM 系統漏洞,可能導致哈希原像攻擊
據MacRumors 8月18日報道,蘋果早前發布的用于檢測iCloud照片中是否存在兒童色情圖片(CSAM)的NeuralHash算法存在漏洞,可能被利用進行原像攻擊。
開發者Asuhariet Yvgar 在Reddit上表示,他發現了iOS 14.3中CSAM檢測使用的蘋果NeuralHash算法的一個版本,容易發生哈希碰撞,導致原像攻擊。該攻擊可能導致普通用戶被誣陷持有兒童色情圖片并招致蘋果調查審核。
同日,蘋果回應媒體Motherboard稱,在 iOS 14.3 中發現的 NeuralHash 版本并不是與 iOS 15 一起發布的最終版本。蘋果還表示,它已將該算法公開以供安全研究人員驗證,但還有第二個非公開算法將在用戶超30張匹配閾值后開啟檢查以及人工驗證。
據了解,該算法是在隱藏的API中發現的,NeuralHash的容器被稱為MobileNetV3。Asuhariet Yvgar對代碼進行了逆向工程,并在Python中重建了一個工作模型,可以上傳圖像測試。目前,該代碼和腳本已上傳至GitHub供大家查證。
利用這個工作的Python腳本,GitHub用戶已經開始研究這個算法是如何工作的,以及它是否可以被濫用。
一位名叫dxoigmn的用戶發現,如果知道CSAM數據庫中發現的結果哈希值,人們可以創建一個產生相同哈希值的假圖像。理論上,一個用戶可以將這些圖片發送給隨機的蘋果用戶,以觸發該算法。
目前還沒有人發現iOS 15測試版中存在CSAM數據庫或匹配算法。蘋果也還沒有提供CSAM檢測功能的確切發布時間表。