Apple Child Safety 照片扫描——它是怎样工作的以及它为什么会引起争议

新发布的 Apple 儿童安全工具集——将扫描 iOS 设备以查找虐待儿童的图像——很快成为激烈辩论的主题。 虽然没有人可以反对保护儿童免受潜在的在线虐待和伤害,但苹果的方法带来了隐私问题,以及未来是否可以将这项技术用于其他目的。

随着下一代 Apple 操作系统的更新,美国用户将受到新的扫描系统的影响,该系统是旨在解决儿童性侵犯材料 (CSAM) 的更广泛工具集的一部分。 如果您对系统的运作方式感到好奇,为什么有人批评它以及它对您的 iPhone 意味着什么,我们已经解释了下面发生的事情。

iOS 15 发布日期、测试版、支持的设备和所有新 iPhone 功能 MacBook Pro 2021:为什么我终于要更换使用了 6 年的 MacBook Pro加: Mac 上的 Windows 11? Parallels 17 使之成为可能

Apple Child Safety 照片扫描:它是如何工作的?

正如苹果公司在其 介绍性博文,它在 iOS 15、iPadOS 15 和 macOS Monterey 中引入了多项措施,“以保护儿童免受使用通信工具招募和利用他们的掠夺者的侵害”。 iOS、iPadOS 和 macOS 的新版本预计将在今年秋季推出测试版。

Apple 的主要新工具是检查图像哈希,这是检查 CSAM 图像的常用方法。 所有数字图像都可以表示为“散列”,这是一组独特的数字,可用于查找相同的图像。 使用国家失踪与受虐儿童中心 (NCMEC) 保存的一组 CSAM 哈希值,Apple 可以比较这些哈希值并查看设备上是否有任何图像匹配。

这个过程全部发生在设备上,用户的本地数据不会被发送到其他地方。 Apple 的系统还可以监控您的 iCloud 照片库中是否存在潜在的违规材料,但这是通过在上传前检查图像来实现的,而不是通过扫描在线文件来实现的。

苹果儿童安全照片扫描

Apple 的“儿童保护扩展”指南中的图表,显示了其照片扫描过程的工作原理。

如果 Apple 的系统找到与 CSAM 哈希匹配的图像,它将标记该照片。 累积多个标志的帐户将手动审查潜在匹配项。 如果图像被确定为正版 CSAM,Apple 将关闭该帐户并通知 NCMEC。 这可能会导致执法或法律行动的回应。

如果用户觉得有错误,他们可以提出上诉。 然而,Apple 相信该系统不会给出误报。 它提供了“每年不到万亿分之一的机会”帐户被错误标记的情况。

Apple Child Safety 照片扫描:还涉及什么?

除了照片扫描系统,Apple 还推出了其他措施,可以为用户设备系列中的儿童帐户启用这些措施。 在消息应用程序中,设备认为可能有害的任何图像——无论它们是被发送还是接收——都会被模糊掉,点击它会显示一个弹出警告。

警告指出,图像或视频可能是敏感的,可能是为了伤害它们而发送的,或者纯属意外。 然后它提供退出或查看图像的选项。 如果有人选择查看图像,随后的屏幕会说明 Apple 将向孩子的父母发送通知。 只有在选择第二次查看图像后,用户才能看到发送的内容。

Siri 还配备了针对 CSAM 相关查询的特殊答案。 它会引导用户报告可疑的滥用行为或根据所询问的内容寻求帮助。

Apple Child Safety 照片扫描:它将如何影响我的 Apple 设备?

当升级到 iOS 15、iPadOS 15 或 macOS Monterey 时,当 Child Safety 推出时,您不会注意到您的设备或 iCloud 库中的任何差异,除非您确实拥有 CSAM 或相关数据。 子帐户的附加措施只会在标记为此类的帐户上激活。

此外,美国以外的 Apple 设备用户不会有任何变化。不过,Apple 未来很可能会在其他国家/地区推出该系统。

Apple Child Safety 照片扫描:人们为什么批评它?

您可能已经在网上看到了对苹果新措施的激烈批评。 重要的是要记住,提出这些论点的人都没有淡化打击虐待儿童的重要性。 相反,他们主要关心的是如何平衡这种努力与用户隐私,以及未来如何为了不太高尚的目的而改变这个系统。

苹果公司在用户隐私问题上的明显转变也引起了一些愤怒。 虽然其他公司多年来一直在检查其产品的内容,但苹果一直是一个显着的例外,在其设备中提供所谓的“后门”,著名的例子是 2015 年拒绝 FBI 访问恐怖主义嫌疑人的设备。它在今年早些时候推出 App Tracking Transparency 时迈出了一大步,它让用户可以看到应用程序请求什么数据,并阻止他们访问它。

Apple 表示,由于分析和哈希完全保存在用户的设备上,因此即使检查 CSAM,设备也能保持安全。 然而,正如在线隐私非营利性电子前沿基金会在一份 最近贴文, “一个完整记录的、经过深思熟虑的、范围狭窄的后门仍然是一个后门。”

虽然该技术专注于检测 CSAM,但理论上可以将设备上的图像哈希与外部数据库进行比较的能力适用于检查其他材料。 批评者经常提到的一个例子是,政府通过创建关键材料数据库来瞄准对手,然后合法地迫使苹果监控设备以进行匹配。 在较小的范围内,完全无辜的图像可能会被“注入”违规图像的代码,从而允许恶意团体诱捕或涂抹目标人群,而他们却没有意识到,为时已晚。

马修格林约翰霍普金斯信息安全研究所计算机科学副教授在 Twitter 帖子中写道,在用户设备上检查照片比在服务器上检查要好得多。 然而,他仍然不喜欢苹果的系统,因为它开创了未经同意扫描用户手机是可以接受的先例,这可能会导致想要无故监视 iPhone 用户的机构滥用。

相反,一些专家提倡使用更强大的报告工具来保持用户隐私的完整性,同时仍确保将 CSAM 的详细信息传递给相关当局。 威尔·卡斯卡特消息服务负责人 Whatsapp 将 Apple 的计划描述为过度,并表示同样大力倡导端到端加密的 Whatsapp 不会采用类似的系统,而是依赖于使用户报告尽可能简单明了。

在一个 回答有关此事的常见问题的文件,Apple 表示,由于其设计方式,不可能使用现有系统来检测超出 NCMEC 在其数据库中的任何内容的哈希值。 它还表示将拒绝政府要求检测其他任何东西。 至于注入问题,Apple 表示这不是风险,因为在采取任何潜在行动之前,图像都会经过人工审核。

不过,现在得出有意义的结论还为时过早,特别是因为 Apple 仅在美国启用该功能。 专家们将继续研究这些工具的具体实施,因此毫无疑问,这场辩论将持续一段时间,并且随着 Apple 将这些工具引入更多市场,将采用新的区域元素。