苹果早在 2019 年就开始扫描 iCloud 邮件中的儿童色情照片

CSAM iCould

苹果前段时间推出的儿童安全新政策,为了保护儿童的安全,防止儿童性虐待材料CSAM(Child Sexual Abuse Material)的传播,新功能会检查iCloud中存储的照片,如果有是CSAM相关照片存储在iCloud中,会自动联系相关执法机构。但外媒 9to5Mac 报告表示苹果公司向他们承认,它早在 2019 年就开始进行相关的扫描操作。

苹果早在 2019 年就开始扫描 iCloud 邮件

近日,苹果向外媒 9to5Mac 承认,自 2019 年以来,苹果已经开始扫描 iCloud 电子邮件并检查儿童性虐待材料 CSAM(Child Sexual Abuse Material),但并未扫描 iCloud 照片和 iCloud 备份。

由于电子邮件未加密,因此扫描电子邮件对 Apple 来说是一项非常容易的任务。 苹果还表示,目前正在进行一些有限的在线扫描,但没有具体说明扫描是什么,只是略微暗示了小规模扫描。 但可以肯定的是,iCould 备份不包括在内。

Apple 执行 CSAM 扫描的原因

Apple 在儿童安全说明页面上的文字(摘录):

无论产品用于何处,Apple 都致力于保护整个生态系统中的儿童,我们将继续在该领域进行创新。

作为其承诺的一部分,Apple 使用图像匹配技术来帮助检测和报告虐待儿童案件。 就像电子邮件中的过滤器一样,我们的系统使用电子签名文件来检查是否存在虐待儿童的嫌疑。 通过单独审核以验证包含与虐待儿童相关内容的帐户是否违反了我们的服务条款,一旦发现,我们将禁用此类帐户。

CSAM iCould

另外两个新的儿童安全功能

除了检测上传到 iCloud 的儿童色情照片外,苹果还发布了另外两项儿童安全功能:消息应用程序将阻止敏感图片,搜索敏感内容时发出警告.

消息应用程序将阻止敏感图片

收到敏感内容的照片时,照片会自动模糊处理,儿童看不到相关敏感内容。 同时,为了保证孩子的安全,在接收或发送带有敏感内容的信息时,孩子和家长都会收到警告信息,立即阻止敏感信息的传播。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

搜索敏感内容时发出警告

如果您使用 Siri 或 Spotlight 搜索 CSAM 和相关的儿童色情内容,新功能也会阻止并发出警告信息。 Siri 和 Spotlight 的警告功能将在今年晚些时候更新到 iOS 15、iPadOS 15、watchOS 8、macOS 12 Monterey。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

进一步阅读

  • iPhone上传的色情照片会自动马赛克,iCloud中的儿童色情照片也会被检查
  • iPhone 的色情图片模糊功能仅适用于儿童,成人用户不受影响。
  • iCloud+上线:隐藏邮件、加密网页浏览、增加使用通讯录找回密码功能