摘要:苹果公司因决定不实施扫描 iCloud 照片以查找儿童性虐待材料 (CSAM) 的系统而遭到起诉。据《纽约时报》报道,该诉讼认为,苹果没有采取更多措施来防止这种材料的传播,而是迫使受害者重温他们的创伤。 这起诉讼描述了苹果在宣布"广泛宣传旨在保护儿童的改进设计
苹果公司因决定不实施扫描 iCloud 照片以查找儿童性虐待材料 (CSAM) 的系统而遭到起诉。据《纽约时报》报道,该诉讼认为,苹果没有采取更多措施来防止这种材料的传播,而是迫使受害者重温他们的创伤。 这起诉讼描述了苹果在宣布"广泛宣传旨在保护儿童的改进设计"后,未能"实施这些设计或采取任何措施来检测和限制"这些材料。
苹果于 2021 年首次宣布了这一系统,并解释说它将使用国家失踪与受虐儿童中心和其他团体提供的数字签名来检测用户 iCloud 库中已知的 CSAM 内容。 不过,在安全和隐私倡导者提出这些计划可能为政府监控制造后门之后,该公司似乎放弃了这些计划。
据报道,这起诉讼来自一名 27 岁的女性,她以化名起诉苹果公司。 她说,在她还是婴儿的时候,一位亲戚对她进行了猥亵,并在网上分享了她的图片,她现在几乎每天都会收到执法部门的通知,称有人因持有这些图片而被起诉。
参与诉讼的律师詹姆斯-马什(James Marsh)说,在这起案件中,可能有 2680 名受害者有权获得赔偿。
该公司的一位发言人告诉《纽约时报》,该公司正在"紧急积极地进行创新,以打击这些犯罪,同时不损害我们所有用户的安全和隐私"。
今年 8 月, 一名 9 岁女孩及其监护人起诉苹果,指控该公司未能解决 iCloud 上的 CSAM 问题。
来源:cnBeta一点号
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!