眾所周知,蘋果在保護使用者安全和隱私方面做得還是非常到位的。近日,蘋果又宣佈了三項針對兒童色情暴力新更新,旨在透過自己技術和產品功能,提供兒童保護。
據蘋果表示,“保護兒童是一項重要責任”。iOS 15系統將透過Messages資訊應用中敏感影象篩查、iCloud中兒童性虐待內容的檢測,以及Siri和搜尋功能的相關內容等三個方面進行檢測。
比如icloud家庭中,如果孩子在Messages資訊上收到色情圖片時,圖片會隱藏起來,並且Messages會警告使用者該圖片是“少兒不宜”的敏感圖片。如果孩子執意檢視這張圖片,那麼iCloud家庭中的父母將受到通知,彈出視窗還將包含一個含有幫助資訊的連結。
相反,如果孩子嘗試傳送一些色情暴力圖片時,同樣也會收到相關警告,包括父母同樣也會收到相關通知。
蘋果表示,Messages的色情圖片辨別功能是透過iPhone上的機器學習功能來分析圖片,並判斷照片是否含有色情內容。此外,iMessage資訊是端到端加密的,蘋果公司自己也無法看到使用者傳送的是什麼圖片。
蘋果還將在iCloud雲盤中加入新功能來打擊兒童性虐待內容 (CSAM) 的傳播,這類內容主要是指涉及兒童色情暴力的內容。
據悉,蘋果將在iOS 15系統中加入一項名為“雜湊”的程序,該程序將對兒童性虐待內容圖片進行監測,隨後將圖片轉換為與其相對應的唯一數字。
在iOS 15系統中,蘋果會檢測儲存在iCloud雲端照片的“雜湊”,並與國家失蹤和受虐兒童中心提供的已知CSAM影象資料庫匹配。一旦某個icloud賬號中的違規圖片達到一定數值,蘋果就會對該賬號進行手動稽核檢視圖片以確認是否匹配。
如果人工稽核後賬戶確實存在問題,蘋果將禁用使用者的賬戶,並向國家失蹤和受虐兒童中心傳送報告。如果是系統誤判,使用者將能夠提出上訴以恢復其賬戶。但蘋果公司稱系統每年的錯誤率不到1萬億分之一。
需要注意,蘋果只分析儲存在iCloud照片中的圖片,iPhone上儲存的照片將不參與此過程。當然,如果你不喜歡,似乎也可以選擇關閉這個功能。
另外,蘋果還將對Siri和搜尋功能進行升級。透過提供額外資源來幫助兒童和父母保持網上安全,如果在不安全時候可透過Siri和搜尋獲得幫助指導。例如,詢問Siri如何報告兒童性虐待內容或剝削童工,以及發現這些情況後如何向有關部門彙報。
據悉,蘋果已經開始測試這些新功能,或率先將在美國推出,大多數美國iPhone使用者都要到今年晚些時候iOS 15更新後才能真正使用這個新功能。