Apple 將會掃描用戶 iPhone 及 iCloud 圖片找出兒童色情照

photo

Apple 宣佈為了保護兒童,將會在 iOS 15、iPadOS 15、watchOS 8、macOS Monterey 加入全新功能,阻止 Child Sexual Abuse Material (CSAM)傳播。

icloud china is using tianyi cloud stoage 01

透過 iMessage 阻擋兒童色情內容

首先,iMessage 會使用裝置上的機器學習功能,對任何敏感內容發出警告,當中會保障用戶的私隱,Apple 也不會得知。

若對方向兒童用戶發出色情照片,相關照片將會自動「模糊化」及作出警告,而兒童的家長也會收到有關提示,讓他們得知子女收到相關的照片。同樣,若兒童向任何人透過 iMessage 發出色情照,也會作出警告並通知家長。

apple csam01

搜尋相關資料會作警告

另外,若透過Siri 及搜尋功能來找 CSAM  兒童色情內容,將會對用戶發出警告。

apple csam02

掃描 iCloud 照片或交失蹤兒童機構

另外,iOS 及 iPadOS 會用新的技術,限制 CSAM 兒童色情內容傳播,同時 Apple 會對 iCloud 上的照片進行偵測,若找到 CSAM  兒童色情內容會將資料交予美國國家兒童失蹤與受虐兒童援助中心,再跟當地執法機構作出研究。暫時,這功能初部會在美國地區啟用,其他地區暫時不會加入。

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookIG