iPhone上传的色情照片会自动马赛克,iCloud中的儿童色情照片也会被检查

加入LINE好友  关注FB粉丝群

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

苹果今天发布了一项新的儿童安全政策。 为了保护儿童的安全,iOS 15、iPadOS 15、watchOS 8、macOS 12 Monterey 将加入新的儿童保护机制。 防止儿童性虐待材料 (CSAM) 的传播。 新的安全政策在发布时仅在美国实施,未来将扩展到全球其他地区。

消息应用程序将阻止敏感图像并发出警告

消息应用程序中将加入新的儿童安全保护工具,使用机器学习来分析消息中的任何敏感内容,苹果不会从中获取任何信息。 当接收或发送含有色情内容的图片时,会向儿童及其父母发送警告信息。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

收到敏感内容的照片时,照片会自动模糊处理,儿童看不到相关敏感内容。 同时,为了保证孩子的安全,在接收或发送带有敏感内容的信息时,孩子和家长都会收到警告信息,立即阻止敏感信息的传播。

检测上传到 iCloud 的儿童色情照片

在 iOS 15 和 iPadOS 15 中,新功能将检查存储在 iCloud 中的照片。 如果与 CSAM 相关的照片存储在 iCloud 中,它们会自动联系相关执法机构(例如:NCMEC 国家失踪和受虐儿童中心)联系并报告情况。

同时,苹果强调,新的安全机制是在保护用户隐私的前提下设计的。 安全机制不是直接扫描iCloud中的照片,而是将NCMEC等儿童安全组织提供的CSAM图片数据库转换成一组不可读的哈希值,然后传输到用户设备上。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

当用户将照片上传到 iCloud 时,它们将通过一种称为 Private Set Intersection 的加密技术与 NCMEC 和其他儿童安全组织提供的 CSAM 图像数据库进行比较。 如果上传的非法照片达到一定数量,苹果就会对非法内容进行审核,并采用人工方式进行一一检查。 如果照片违规属实,苹果将禁用该 iCloud 帐户并向相关执法机构报告。 当然,这仍然有缺点。 只要照片没有上传到iCloud,就不会被检查和比较,所以未来苹果可能还是要想办法解决这种CSAM传播问题。

搜索敏感内容时发出警告

如果您使用 Siri 或 Spotlight 搜索 CSAM 和相关的儿童色情内容,新功能也会阻止并发出警告信息。 Siri 和 Spotlight 的警告功能将在今年晚些时候更新到 iOS 15、iPadOS 15、watchOS 8、macOS 12 Monterey。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

进一步阅读

  • “可能接触过肺炎患者!” 苹果和谷歌公布手机警告方式
  • 家长如何限制孩子看Netflix电影?善用家长控制功能
  • 无需再等3天! AirTag 追踪警告提示将缩短至 8 至 24 小时