Apple 將會掃描用戶 iPhone 及 iCloud 圖片找出兒童色情照

Apple 宣佈為了保護兒童,將會在 iOS 15、iPadOS 15、watchOS 8、macOS Monterey 加入全新功能,阻止 Child Sexual Abuse Material (CSAM)傳播。

icloud china is using tianyi cloud stoage 01

透過 iMessage 阻擋兒童色情內容

首先,iMessage 會使用裝置上的機器學習功能,對任何敏感內容發出警告,當中會保障用戶的私隱,Apple 也不會得知。

若對方向兒童用戶發出色情照片,相關照片將會自動「模糊化」及作出警告,而兒童的家長也會收到有關提示,讓他們得知子女收到相關的照片。同樣,若兒童向任何人透過 iMessage 發出色情照,也會作出警告並通知家長。

apple csam01

搜尋相關資料會作警告

另外,若透過Siri 及搜尋功能來找 CSAM  兒童色情內容,將會對用戶發出警告。

apple csam02

掃描 iCloud 照片或交失蹤兒童機構

另外,iOS 及 iPadOS 會用新的技術,限制 CSAM 兒童色情內容傳播,同時 Apple 會對 iCloud 上的照片進行偵測,若找到 CSAM  兒童色情內容會將資料交予美國國家兒童失蹤與受虐兒童援助中心,再跟當地執法機構作出研究。暫時,這功能初部會在美國地區啟用,其他地區暫時不會加入。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookIG