Apple兒童性虐素材偵測技術被批會遭濫用

Apple八月初宣布要偵測用戶是否儲存兒童性虐待素材(CSAM),雖然尚未發布到十幾億用戶的裝置上去,但正反兩極意見已在激戰,新加入戰局的是安全研究人員,說這項技術面臨演算法會產生缺陷。

理論上Apple是透過由兒童保護機構如NCMEC,所提供的可特別辨識出一幅圖像的一連串字母與數字,在用戶的裝置上尋找有相同元素的圖像。但如果Apple所使用的NeuralHash這項技術,在一張圖像上發現了三十或以上相符元素,在把帳戶主人報警之前,會先把它通報給Apple來做人工檢查。Apple表示,這樣的錯誤機率為一兆分之一。

但安全專家和隱私權益者表達關切的是,這套系統可以被有高度資源的角色,例如政府單位給利用,栽贓無辜受害者,或者操縱系統來檢測獨裁國家想要發現的反對者材料。

不過根據一份被洩漏的Apple內部備忘錄,NCMEC稱這樣的擔憂是「少數者的尖叫聲」。

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.