iPhone 的色情图片模糊功能仅适用于儿童,成人用户不受影响。

加入LINE好友  关注FB粉丝群

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

国人昨天报道,如果用iPhone上传色情照片,会自动马赛克,还会检查iCloud中的儿童色情照片。外媒证实, 此功能仅对儿童用户启用,必须由家长设置。 成人用户不会受到影响。

消息应用拦截功能将只为儿童用户启用

这项名为“通信安全”的新功能将使用机器学习来分析消息中的任何敏感内容,Apple 不会从中获取任何信息。 当接收或发送含有色情内容的图片时,会向儿童及其父母发送警告信息。

收到敏感内容的照片时,照片会自动模糊处理,儿童看不到相关敏感内容。 同时,为了保证孩子的安全,在接收或发送带有敏感内容的信息时,孩子和家长都会收到警告信息,立即阻止敏感信息的传播。

外媒称:苹果已经确认,通讯安全功能必须由家长通过“Family Sharing”开启。 家长可以帮助孩子的Apple ID账号开启通讯安全功能。 成人账号无法开启通讯安全功能,通讯安全仅适用于未满18周岁的用户。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

苹果保证通讯安全功能不会有隐私问题

对于大家关心的隐私问题,苹果保证:通信安全就是利用机器学习来分析消息中的任何敏感内容。 因为它会在设备上运行,而且消息内容仍然会使用端到端加密,所以苹果不会从中获取任何信息。

同时,苹果还再次强调,儿童色情检查功能不会扫描用户设备上的图片库,而是会使用数字密码与NCMEC等儿童安全组织提供的CSAM图片库进行比对。 因此,Apple 不会看到实际照片。 只有当上传的非法照片达到一定数量时,苹果才会查找非法内容,并使用人工方法进行一一检查。

iOS 15 iPadOS 15 watchOS 8 macOS 12 蒙特雷儿童安全 CSAM

苹果表示,这套安全功能已经开发多年,并不是为了监控用户,而是为了防止儿童性虐待材料CSAM(Child Sexual Abuse Material)的传播。 目前,这种安全系统仅在美国使用,未来将扩展到世界各地。 并且只有在打开 iCloud 照片功能时才会启用。

进一步阅读

  • “可能接触过肺炎患者!” 苹果和谷歌公布手机警告方式
  • 家长如何限制孩子看Netflix电影?善用家长控制功能
  • 无需再等3天! AirTag 追踪警告提示将缩短至 8 至 24 小时

相关阅读:

Posted in: 实用技巧