西弗吉尼亚州总检察长JB McCuskey今日宣布对苹果公司提起诉讼,指控苹果明知iCloud被用于分发和存储儿童性虐待材料(CSAM),却多年来选择“什么都不做”。
“把儿童性侵者的隐私放在首位是绝对不可原谅的,更重要的是,这违反了西弗吉尼亚州的法律。由于苹果至今拒绝自我监管、拒绝做道德上正确的事,我现在提起诉讼,要求苹果遵守法律、报告这些图像,并停止通过允许这些图像被存储和分享来对儿童造成二次伤害。”——总检察长JB McCuskey表示。
根据诉状[PDF],苹果内部曾将自己描述为“分发儿童色情内容的最伟大平台”,但其向当局提交的CSAM报告数量却远少于谷歌和Meta等同行。
早在2021年,苹果曾宣布推出新的儿童安全功能,包括一套系统用于检测iCloud照片中已知的CSAM图像。然而在遭到用户、数字权利组织、儿童安全倡导者及安全研究人员的强烈反对后,苹果最终决定放弃在iCloud照片中实施CSAM检测计划。
“我们相信可以在不翻查个人数据的情况下保护儿童,我们将继续与政府、儿童权益组织及其他公司合作,保护年轻人、维护他们的隐私权,并让互联网成为对儿童和我们所有人更安全的地方。”苹果在宣布放弃该功能时表示。
苹果后来解释称,开发扫描私人iCloud数据的工具将会“为数据窃贼创造新的威胁途径,让他们找到并加以利用”。
西弗吉尼亚州总检察长认为,苹果以用户隐私为幌子逃避保护儿童的责任,不部署检测技术是主动选择,而非被动疏忽。诉状指出,苹果对硬件、软件和云基础设施拥有端到端控制权,因此根本无法声称自己是“不知情的、被动的CSAM传输渠道”。
该诉讼寻求惩罚性赔偿以及强制苹果实施有效CSAM检测措施的禁制令救济。
2024年,苹果也因放弃CSAM检测计划而遭到起诉。当时一起代表潜在2680名受害者的集体诉讼称,苹果未能实施CSAM监控工具,对受害者造成了持续伤害。该案索赔金额高达12亿美元。






