今年末左右,Apple將推出一項新技術,允許該公司以一種它說會保護用戶隱私的方式,偵測並通報被發現的兒童性虐待素材(CSAM)給執法單位。

Apple告訴TechCrunch,檢測CSAM是其許多新功能中的一個,旨在更好地保護使用其服務的兒童免受線上傷害,包括可以阻擋潛在性明確照片,在兒童的IMessage帳戶收發的過濾器。另一個功能是,當用戶想要透過Siri和Search來搜尋CSAM相關詞彙時,就會介入干預。

大多數雲端服務,例如Dropbox、Google和Microsoft等,都已經在掃描可能違反其服務條款,或者像CSAM這種可能是非法的用戶檔案內容。但是Apple在雲端這一塊,長期以來是抵制掃描用戶文件的,在用戶的資料送去Apple的iCloud伺服器之前,給用戶選項來加密資料。

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.