IT之家 12 月 9 日报道,苹果因取消原定 2022 年儿童性虐待材料(CSAM)检测计划而被起诉。一名童年曾遭受性虐待的 27 岁女性正在化名起诉苹果,指控其违背了保护受害者的承诺。
2021 年末,苹果宣布计划通过设备端哈希系统扫描 iCloud 中的图像,以检测和防止 CSAM 的传播,并在用户发送或接收包含裸露的照片时发出警告。目前,裸露检测功能(通信安全)仍然存在,但由于隐私专家、儿童安全组织和政府的广泛反对,CSAM 检测功能被删除。
检察官表示,执法部门通知她,在 CSAM 检测仍然可用时,她在佛蒙特州查获的一台 MacBook 上,她被性虐待的图像被上传到了 iCloud。她在诉讼中表示,苹果决定终止该功能,导致该材料得以广泛传播,向消费者出售“有缺陷的产品”,从而对像她这样的用户造成伤害。
据该女子的律师称,原告要求苹果公司改变其做法,并向可能多达 2,680 名其他符合资格的受害者提供赔偿,根据法律,这些受害者每人至少有权获得 15 万美元的赔偿。如果所有受害者成功获得赔偿,苹果的赔偿金额可能会超过12亿美元(IT之家注:目前约为87.28亿元人民币)。
类似的案例在北卡罗来纳州也发生过。一名 9 岁的 CSAM 受害者正在起诉苹果公司,称她通过 iCloud 链接收到了陌生人发来的非法视频,并被鼓励拍摄和上传类似内容。苹果提出了驳回此案的动议,称联邦法规第 230 条保护其免于对用户上传到 iCloud 的材料承担责任。但法院最近裁定,这种法律保护仅适用于主动内容审核的情况,这可能会削弱苹果的辩护。
针对新的诉讼,苹果发言人 Fred Sainz 表示:“苹果认为儿童性虐待材料令人愤慨,我们致力于在不损害用户隐私和安全的情况下积极打击相关犯罪行为。”他提到苹果在消息应用程序中扩展了裸体检测,并允许用户报告有害内容。然而,原告及其律师玛格丽特·马比认为,苹果的措施还远远不够。
Mabee 表示,她通过执法报告和相关文件发现了 80 多起涉及受害者图像和苹果产品的案件。分享这些图像的人是一位湾区男子,他的 iCloud 帐户中存储了 2000 多张图像。非法图片和视频。