解释:Apple 将如何扫描设备上的儿童剥削图像,以及为什么会引起人们的注意
预计最初会在美国上线,其功能包括使用新技术来限制 CSAM 在线传播,尤其是通过 Apple 平台。

苹果公司已经宣布 今年晚些时候的软件更新将带来新功能 这将有助于保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料 (CSAM) 的传播。
预计最初会在美国上线,其功能包括使用新技术来限制 CSAM 在线传播,尤其是通过 Apple 平台。
然后将有设备上保护儿童发送或接收敏感内容,并有机制在用户未满 13 岁时提醒父母。Apple 也会在使用 Siri 或 Search 查找 CSAM 相关主题时进行干预.
Apple 正在采取哪些技术来防止 CSAM 在线传播?
在一篇博客文章中,Apple 解释说它将通过 iOS 和 iPadOS 使用加密应用程序来匹配存储在 iCloud Photo 上的已知 CSAM 图像。该技术将用户 iCloud 上的图像与儿童安全组织提供的已知图像进行匹配。这是在没有实际看到图像的情况下完成的,只需寻找指纹匹配即可。如果匹配超过阈值,Apple 将向国家失踪和受虐儿童中心 (NCMEC) 报告这些情况。
Apple 澄清说,其技术牢记用户隐私,因此数据库被转换为一组不可读的哈希值,并安全地存储在用户的设备上。它补充说,在将任何图像上传到 iCloud 之前,操作系统将使用称为私有集交集的加密技术将其与已知的 CSAM 哈希值进行匹配。该技术还将在不透露结果的情况下确定匹配。
此时,设备会使用匹配结果和附加加密数据创建加密安全凭证,并将其与图像一起保存到 iCloud。阈值秘密共享技术可确保 Apple 无法解读这些凭证,除非 iCloud 照片帐户超过已知 CSAM 内容的阈值。该博客声称,设置这个阈值是为了提供极高的准确性,并确保每年错误标记给定帐户的几率低于万亿分之一。因此,单个图像不太可能触发警报。
但如果超过阈值,Apple 可以解释安全凭证的内容并手动检查每个报告是否匹配,禁用用户的帐户,并向 NCMEC 发送报告。苹果表示,如果用户认为自己被错误标记,可以提出上诉。
其他功能如何工作?
Apple 新的 Messages 通信安全将模糊敏感图像并警告孩子有关内容的性质。如果从后端启用,还可以告诉孩子他们的父母已收到有关他们已查看的消息的警报。如果孩子决定发送敏感消息,同样适用。 Apple 表示 Messages 将使用设备上的机器学习来分析图像附件并确定照片是否具有色情内容,并且 Apple 将无法访问这些消息。该功能将作为最新操作系统版本在 iCloud 中设置为家庭的帐户的更新。
此外,随着更新,当用户尝试查找潜在的 CSAM 主题时,Siri 和搜索将解释为什么这可能是有害的和有问题的。如果用户提出要求,他们还将获得有关如何提交关于剥削儿童的报告的指导。
| 解释:谷歌将如何以及为何为在线儿童提供更多保护
苹果为什么要这样做,有哪些顾虑?
多年来,大型科技公司一直承受着打击利用其平台剥削儿童的压力。多年来,许多报告都强调在阻止技术使 CSAM 内容更广泛地可用方面做得还不够。
然而,苹果的声明遭到了批评,许多人强调这正是许多政府想要拥有并喜欢滥用的监控技术。苹果长期以来一直是隐私的拥护者,这一事实让许多人感到惊讶。
此外,约翰霍普金斯大学的 Matthew Green 等密码学专家表示担心,该系统可能会被用来陷害无辜的人,向他们发送旨在触发 CSAM 匹配的图像。他告诉 NPR,研究人员已经能够很容易地做到这一点,并补充说有可能欺骗此类算法。
但《纽约时报》援引苹果首席隐私官 Erik Neuenschwander 的话说,这些功能对普通用户来说没有任何不同。
他告诉该出版物,如果您要存储一组 CSAM 材料,是的,这对您不利。
通讯|单击以在收件箱中获取当天最佳解说员
其他大型科技公司有类似的技术吗?
是的。事实上,由于微软、谷歌和 Facebook 一直在就 CSAM 图像向执法机构发出警告,因此苹果进入现场的时间相对较晚。苹果一直落后,因为任何此类技术都将违背其广为宣传的用户隐私承诺。因此,据《纽约时报》报道,2020 年,当 Facebook 向 NCMEC 报告了 2030 万起违反 CSAM 的行为时,苹果只能报告 265 起案件。
直到现在,它才能够在不影响普通用户或至少吓坏他们的情况下找到技术最佳点来做到这一点。然而,正如最初的强烈反对所表明的那样,这仍然是走钢丝。
和你的朋友分享: