苹果悄悄地从其网站上删除了有争议的 CSAM 检测功能的详细信息

Apple 已悄悄地从其网站上删除了有关其 CSAM(儿童性虐待材料)检测功能的详细信息,这让我们暗示它可能已决定由于收到的所有负面信息而推迟该功能完全放弃该功能。然而,情况可能并非如此。

苹果的 CSAM 检测被废弃了?

Apple 的 Child Safety 页面不再提及CSAM 检测功能。自 8 月宣布以来一直备受争议的 CSAM 检测使用机器学习算法来检测用户 iCloud 照片中的色情内容,同时维护用户的隐私。但是,该功能受到广泛审查,因为它妨碍了人们的隐私,并引发了人们对其如何容易被滥用的担忧。

尽管苹果已经删除了对 CSAM 检测的引用,但它并没有取消该功能,并且仍打算坚持其在 9 月份宣布的计划,根据给The Verge 的一份声明。早在 9 月份,Apple 就宣布将根据“客户、倡导团体、研究人员和其他人”的反馈推迟该功能的推出。

除此之外,Apple 尚未删除与 CSAM 检测相关的支持文件(关于其功能和常见问题解答),进一步暗示 Apple 计划最终发布该功能。因此,我们可以期待该功能在向用户提供之前会度过一段美好的时光。

回想一下,该功能是与消息中的通信安全一起引入的,并在 Siri、搜索和 Spotlight 中扩展了 CSAM 指南。前者是为了避免儿童发送或接收包含裸体的内容,而后者在使用此类术语时会尝试提供有关该主题的更多信息。这两项功能仍在网站上,并已作为最新 iOS 15.2 更新的一部分推出

现在,Apple 计划如何以及何时使 CSAM 检测功能正式化还有待观察。由于该功能尚未受到人们的热烈欢迎,因此每当它准备好正式发布时,Apple 都必须小心谨慎。我们会及时通知您,敬请关注更新。

Tags:
分享到:

最新文章