苹果悄悄地放弃了其有争议的“虐待儿童手机扫描”功能……目前

今年早些时候,Apple 宣布将扫描您的 iPhone 和 iCloud 照片以查找儿童性虐待。随之而来的是激烈的反弹,现在看来该公司在没有告诉任何人的情况下完全放弃了该项目。

Apple 于 2021 年 8 月首次宣布了该功能。它旨在扫描您孩子的消息,以及您的图像、Siri 和搜索。这一切都是为了检测儿童性虐待材料 (CSAM) 并阻止其在线传播。

正如 Apple 当时解释的那样,该功能不会将您的照片存储在任何地方。相反,它只会收集图像哈希(“数字指纹”)并将它们与已知的 CSAM 哈希进行比较。然而,这还不足以阻止来自个人Meta等公司的强烈反对(哦,讽刺的是)。

在遭到强烈反对后, 苹果公司表示,防止虐待儿童系统只会扫描已经被标记的照片。但随后在 9 月,该公司决定推迟该功能。苹果发言人当时表示:“根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”不过,飞机好像又变了。

iOS 15.2 已于本周早些时候发布,并针对消息推出了通信安全功能。然而,正如Mac Rumors 所注意到的,Apple 决定推迟 CSAM 的推出。根据同一消息来源,该功能的任何提及也已从 Apple 网站上消失。

考虑到所有批评和担忧,人们可能会认为 Apple 已决定完全放弃该功能。然而,发射似乎只是进一步推迟了。苹果发言人告诉The Verge ,计划毕竟没有改变。此外,您还可以找到 PDF 格式的 CSAM 技术摘要。因此,您似乎即将受到 Apple 的监视 - 只是还没有。

[通过Gizmodo边缘]

分享到:

最新文章