Apple 确认将开始扫描 iCloud 和 Messages 以检测虐待儿童的图像

Apple 将开始使用一种系统来检测信息、照片和 iCloud 中的色情照片,并将其与已知的儿童性虐待材料 (CSAM) 数据库进行比较,以帮助执法部门发现潜在的掠夺者。

公告 (通过 路透社) 表示,随着今年晚些时候 iOS 15、watchOS 8 和 macOS Monterey 的发布,这些新的儿童安全措施将实施。 此举是在谷歌、Facebook 和微软部署类似系统数年后做出的。 谷歌实施了“PhotoDNA”系统 回到 2008 年 微软在 2009 年效仿。Facebook 和 Twitter 分别自 2011 年和 2013 年以来就已经部署了类似的系统。

云存储 vs 云备份 vs 云同步:有什么区别?如何使用 Dropbox、OneDrive、Google Drive 或 iCloud 作为您的主要云存储加: Zoom 就 8500 万美元的集体诉讼达成和解——如何获得资金

当发送或接收色情照片时,Messages 应用程序将开始警告儿童及其父母。 该应用程序会模糊图像并说:“这不是你的错,但敏感的照片和视频可能会伤害你。”

该系统将使用设备上的机器学习来分析图像。 如果被视为色情内容,照片将被模糊处理。

iOS 15 信息警告色情照片。

“iOS 和 iPadOS 将使用新的密码学应用程序来帮助限制 CSAM 在线传播,同时为用户隐私进行设计,”根据 Apple 的说法 儿童安全网页. “CSAM 检测将帮助 Apple 向执法部门提供有关 iCloud 照片中 CSAM 集合的宝贵信息。”

该系统将允许 Apple 检测存储在 iCloud 照片中的 CSAM。 然后它会向国家失踪和受虐儿童中心 (NCMEC) 发送一份报告。

根据 麦克传闻,Apple 正在使用“NeuralHash”系统,在将照片上传到 iCloud 之前,该系统将比较用户 iPhone 或 iPad 上的照片。 如果系统发现 CSAM 正在上传,案例将升级进行人工审核。

Apple 还将允许 Siri 和 Search 帮助儿童和家长报告 CSAM。 本质上,当有人搜索与 CSAM 相关的内容时,会出现一个弹出窗口来帮助用户。

帮助报告 CSAM 的 Siri 资源

当然,对于这样的系统,总会有隐私问题。 苹果也打算解决这个问题。

“Apple 检测已知 CSAM 的方法在设计时考虑到了用户隐私。该系统使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库执行设备匹配,而不是扫描云中的图像,”根据 Apple 的说法儿童安全网页。 “Apple 进一步将该数据库转换为一组不可读的哈希值,并安全地存储在用户的设备上。”

根据苹果公司的说法,“每年错误标记给定帐户的几率不到万亿分之一”。

即使据称虚假指控的比率很低,但有些人担心这种类型的技术可以用于其他方式,例如追捕上传批评政府图像的反政府抗议者。

查看更多

不管潜在的隐私问题如何,美国国家失踪与受虐儿童中心的首席执行官约翰克拉克认为,苹果公司的做法利大于弊。

克拉克在一份声明中说:“由于有这么多人使用 Apple 产品,这些新的安全措施对于在网上被引诱并且其恐怖图片在儿童性虐待材料中传播的儿童来说具有挽救生命的潜力。” “现实是隐私和儿童保护可以共存。”

更多的: 如何在 Google Chrome 中运行安全检查今天最好的 Apple AirPods Pro 优惠6359 沃尔玛客户评论☆☆☆☆☆降价就像新的 Apple AirPods PRO…沃尔玛249.99 美元169.99 美元减价苹果 AirPods Pro亚马逊鼎盛时期249 美元189.99 美元减价苹果 AirPods Pro沃尔玛249.99 美元189.99 美元减价AirPods Pro + 无线…扎维307.99 美元269.99 美元显示更多优惠我们每天检查超过 2.5 亿件产品以获得最优惠的价格Apple 确认将开始扫描 iCloud 和 Messages 以检测虐待儿童的图像 1

相关阅读:

Posted in: 隐私安全