摘要:苹果公司因未实施儿童性虐待材料(CSAM)扫描系统而面临诉讼。诉讼称,苹果未能采取措施保护受害者,使他们不得不重温创伤经历。尽管苹果曾承诺改进设计以保护儿童,但未落实这些承诺。2021年,苹果推出计划,利用数字签名识别iCloud中的CSAM内容,但因隐私担忧
#头条精品计划#
苹果公司因未实施儿童性虐待材料(CSAM)扫描系统而面临诉讼。诉讼称,苹果未能采取措施保护受害者,使他们不得不重温创伤经历。尽管苹果曾承诺改进设计以保护儿童,但未落实这些承诺。2021年,苹果推出计划,利用数字签名识别iCloud中的CSAM内容,但因隐私担忧而放弃,导致重大反弹。诉讼由一名27岁女性提出,她声称在婴儿时期遭到侵犯,相关照片被传播,造成持续困扰。律师表示,可能有约2,680名受害者符合赔偿资格。苹果回应称,正在积极创新以打击这些犯罪,同时保障用户安全与隐私。此外,八月份还有一名9岁女孩及其监护人对苹果提起诉讼,指控其未能解决iCloud上的CSAM问题。
总部位于美国加利福尼亚州库比蒂诺的苹果公司,因未实施一套旨在扫描iCloud照片以识别儿童性虐待材料(CSAM)的系统而面临诉讼。诉讼称,苹果的无作为使受害者不得不重温其创伤经历,《纽约时报》对此进行了报道。法律投诉描述了苹果此前宣布的“广受推崇的改进设计,旨在保护儿童”,然而却指出该公司未能落实这些设计或采取任何实质性措施来检测和限制此类有害材料的传播。
在2021年,苹果最初推出了一项计划,旨在通过利用来自国家失踪与被剥削儿童中心及其他组织的数字签名,识别用户iCloud库中已知的CSAM内容。然而,随着安全和隐私倡导者提出的担忧,苹果似乎放弃了这一计划,他们认为这样的系统可能会为政府监控创造后门。这一方向的转变引发了重大反弹,并现在成为苹果面临的法律问题之一。
据报道,该诉讼源于一名27岁的女性,她以化名起诉苹果。她声称在婴儿时期遭到亲属侵犯,并随后其照片在网上被传播,导致她几乎每天都收到执法部门关于有人因持有这些图片而被起诉的通知。参与此案的律师詹姆斯·马什提到,可能有大约2,680名受害者符合相关赔偿的资格。TechCrunch已联系苹果以获取评论,苹果发言人向《时报》表示,苹果正在“紧急且积极地创新,以打击这些犯罪,而不影响所有用户的安全与隐私。”此外,在八月份,一名9岁女孩及其监护人也对苹果提起诉讼,指控该公司未能解决iCloud上的CSAM问题。
来源:老孙科技前沿一点号