黄道带的补偿
Or Or C名人

找出十二生肖的兼容性

解释:为什么苹果推迟其扫描虐待儿童照片的软件

虽然这一举措受到儿童保护机构的欢迎,但数字隐私的倡导者和行业同行正在发出危险信号,表明该技术可能会对用户隐私产生广泛的影响。

在这张文件照片中,德国慕尼黑市中心的一家商店中点亮了 Apple 的标志 (AP)

在受到隐私倡导者和行业同行的批评之后,Apple 推迟了其软件的发布 检测描绘虐待儿童的照片 在 iPhone 上。该计划于上个月宣布,计划于今年晚些时候在美国推出。







Apple 的软件是什么,它是如何运作的?

苹果上个月表示将推出一种双管齐下的机制,该机制会扫描其设备上的照片,以检查可能被归类为儿童性虐待材料 (CSAM) 的内容。作为该机制的一部分,Apple 的工具 neuralMatch 会在照片上传到 iCloud(其云存储服务)之前检查照片,并检查在其端到端加密 iMessage 应用程序上发送的消息内容。该公司表示,Messages 应用程序将使用设备上的机器学习来警告敏感内容,同时保持苹果无法读取私人通信。

NeuroMatch 将这些图片与虐待儿童图像的数据库进行比较,当出现标记时,Apple 的工作人员会手动检查这些图像。一旦确认虐待儿童,美国国家失踪和受虐儿童中心 (NCMEC) 将收到通知。



有哪些顾虑?

虽然这一举措受到儿童保护机构的欢迎,但数字隐私的倡导者和行业同行正在发出危险信号,表明该技术可能会对用户隐私产生广泛的影响。人们认为,几乎不可能构建一个仅用于儿童发送或接收的色情图片的客户端扫描系统,而不会对此类软件进行调整以用于其他用途。该公告再次将焦点放在寻求加密服务后门的政府和执法部门。端到端加密消息服务 WhatsApp 的负责人 Will Cathcart 曾表示:这是一个 Apple 构建和运营的监控系统,可以很容易地用于扫描私人内容,以查找他们或政府决定控制的任何内容。销售 iPhone 的国家/地区对可接受的产品有不同的定义。

也在解释| 如果下一代 iPhone 有卫星连接,这就是苹果将使用的技术

苹果为何退步?

在一份声明中,苹果公司表示,在公司内外因隐私和其他理由批评该系统后,将需要更多时间来收集反馈并改进提议的儿童安全功能。



它说,根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。

据路透社报道,苹果公司数周以来一直在为该计划辩护,并且已经提供了一系列解释和文件,以表明误检测的风险很低。



通讯|单击以在收件箱中获取当天最佳解说员

和你的朋友分享: