为什么苹果放弃了扫描你的iCloud照片的计划
苹果公司于2021年8月宣布计划扫描iCloud内容,以保护儿童免受滥用者的虐待,并寻找儿童色情内容(CSAM)。
该公司计划在iCloud照片中推出一项新的CSAM检测功能,该功能可以扫描此类内容并向苹果公司报告匹配的图像,同时保护用户的隐私。
然而,这项新功能引起了不同的反应。在最初的公告一年多之后,苹果正式放弃了在iCloud照片中扫描CSAM的计划。
苹果放弃在iCloud中扫描儿童虐待材料的计划
根据《WIRED》的报道,苹果正放弃在iCloud中扫描儿童虐待内容的计划。该工具将扫描存储在iCloud上的照片,找出与儿童安全组织确定的已知CSAM图像相匹配的照片,并报告这些图像,因为在包括美国在内的大多数司法管辖区拥有CSAM图像是非法的。
苹果取消在iCloud照片中扫描计划的原因
在2021年的初始公告后,苹果面临来自全球各地关注数字隐私与安全的客户、团体和个人的抨击。iPhone通常比Android设备提供更高的安全性,许多人认为这是一种倒退。虽然这对儿童安全组织来说是一次胜利,但超过90个政策团体在同月晚些时候给苹果写了一封公开信,要求该公司取消这一计划。
这封信认为,虽然该工具旨在保护儿童免受虐待,但它可能被用来审查言论自由,威胁用户的隐私和安全。由于压力日益增加,苹果暂停了推出计划,以收集反馈并对该功能进行必要的调整。然而,反馈并不支持苹果在iCloud照片中扫描的计划,所以该公司正式放弃了这一计划。
在向《WIRED》发表的声明中,苹果公司表示:
“我们已经决定不推进之前提出的用于iCloud照片的CSAM检测工具。公司将与政府、儿童权益倡导者和其他公司一起努力,保护年轻人,保护他们的隐私权,使互联网成为儿童和我们所有人的更安全的地方。”
苹果保护儿童的新计划
苹果正在将其努力转向改进于2021年8月宣布并于同年12月推出的“通信安全”功能。
“通信安全”是可选功能,父母和监护人可用此功能来防止孩子在iMessage中发送和接收性露骨的图像。该功能会自动对这类照片进行模糊处理,并向孩子警示相关危险。它还会警告任何试图在苹果设备上搜索CSAM的人。
由于取消了CSAM检测工具的发放计划,苹果公司正致力于进一步改善该功能并将其扩展到更多的通信应用程序。
