Apple 颇受争议的 iCloud 照片 CSAM 扫描已从网站上删除
今年早些时候, Apple 宣布了一个新系统,旨在通过扫描 iPhone 用户的照片来捕捉潜在的 CSAM(儿童性虐待材料)。在一阵骚动之后, Apple 将该系统推迟到 2021 年晚些时候,现在看来它可能不会再有一段时间了,如果有的话。
就在iOS 15.2中发布其多管齐下的儿童安全方法的消息组件几天后,Apple 删除了 Apple.com 上对 CSAM 扫描技术的所有引用。正如Macrumors 发现的那样,之前的儿童安全网页现在指向消息功能中的通信安全的支持页面。苹果表示,该功能仍处于“延迟”状态, 并未取消,尽管它显然会错过自己规定的 2021 年最后期限。
Apple 的 CSAM 检测公告几乎一宣布就引起了争议。所述系统在国家失踪和受虐儿童中心的数据库中扫描用户 iPhone 的图像,寻找可识别的哈希值,然后在已知的 CSAM 哈希值列表中进行检查。如果匹配,则照片上传到 iCloud 后由 Apple 的人员进行审核,如果确实包含 CSAM,则上传者将被转介给有关当局。
针对此功能的争论主要集中在它可以实现用于其他用途的想法上。例如,政府可以要求 Apple 创建一个类似的流程来检查被认为对政府政策起决定性作用的图像。一些人还担心扫描是在 iPhone 上完成的,但在照片上传到 iCloud 之前不会提供结果。
Apple 在 iOS 15.2 中推出了一项新的消息功能,可以在接收或发送包含裸体的照片时警告儿童和父母,这是原始公告的一部分。与提议的 CSAM 扫描不同,该功能默认关闭,家长需要明确选择加入家庭共享。 Siri 和搜索还会在人们试图找到潜在的 CSAM 时发出警告。
东部时间下午 12:10 更新: Apple 表示该功能仍被延迟但并未取消。