苹果在儿童安全页面上删除了 CSAM 检测的提及,代码保留在 iOS 中
Redditor u/AsuharietYgvar在Apple列出儿童安全功能的页面上发现了一个变化。该公司已在 iCloud 照片中删除了有关其有争议的 CSAM 检测计划的任何提及。
更新: 在回应The Verge 时, Apple发言人 Shane Bauer 表示,该公司的立场自 9 月以来没有改变。 Apple 计划推进检测功能并最终发布它。
iOS 15 儿童安全
苹果公司在 8 月份宣布了这一举措,作为 iOS 15 版本的一项功能。它将检测上传到 iCloud 照片的儿童性虐待材料 (CSAM) 的图像。它必须满足某些要求,例如图像哈希值之前是否已从国家失踪和受虐儿童中心 (NCMEC) 上传到数据库。
该网页之前曾说:
截至 2021 年 9 月 3 日的更新:之前我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。
消息中的通信安全仍然在 iOS 15.2 中启动。信息应用程序包含在接收或发送包含裸体的照片时警告儿童的工具。默认情况下不启用这些功能。如果父母选择加入,这些警告将在他们的家庭共享计划中为孩子帐户打开。
Redditor u/AsuharietYgvar 还声称已经提取了用于 CSAM 检测的 NeuralHash 算法。他们还声称该代码从 iOS 15.2 开始仍然存在。目前尚不清楚苹果是否计划完全放弃该计划,或者在其操作系统的未来版本中发布该计划。