2022年苹果取消CSAM检测功能引发争议,涉案原告指控违背保护受害者承诺
苹果取消CSAM检测功能引发伦理争议:保护受害者承诺岌岌可危
数界探索
12月9日的消息称,苹果公司在2022年决定取消原本计划实施的儿童性虐待材料(CSAM)检测功能,因此遭到一名女性起诉。这名现年27岁的女性以化名提起诉讼,指责苹果未能履行保护受害者的承诺,她本人就是在童年时期经历过性虐待的受害者。
苹果公司在2021年末曾宣布计划通过设备端哈希值系统扫描iCloud中的图片,以检测和阻止不法儿童色情(CSAM)图像的传播,并在用户发送或接收含有裸露内容的照片时发出警告。然而,由于隐私专家、儿童安全组织和部分政府部门的广泛反对,CSAM检测功能最终被取消,而裸露内容检测功能(Communication Safety)仍然保留。 这一决定体现了科技巨头在保护用户隐私与维护公共安全之间寻求平衡的努力。苹果公司最初的计划旨在利用先进的技术手段预防儿童遭受性剥削,但其涉及对用户数据进行大规模监控的做法引发了公众对于隐私权的担忧。尽管如此,苹果公司并未完全放弃对潜在不当行为的监测,而是调整了策略,选择在尊重个人隐私的前提下继续提供一定程度的安全保障。这不仅反映了当前社会对隐私权日益增长的关注,也凸显了科技公司在设计产品和服务时必须兼顾用户隐私与社会责任的重要性。
起诉者称,她在CSAM(儿童性虐待材料)检测功能仍在运行时,收到了执法部门的通知,得知她遭受性虐待的图片通过一台在佛蒙特州查获的MacBook被上传到了iCloud。她在诉讼中表示,苹果公司终止该功能的决定导致了这些材料的广泛传播,苹果因此向消费者销售了“有缺陷的产品”,并对包括她在内的一群用户造成了伤害。 从这起事件中可以看出,科技公司在设计和实施旨在保护用户安全的功能时,必须格外谨慎。尽管苹果公司可能出于隐私保护的考虑而取消了CSAM检测功能,但这种做法实际上可能会给潜在的受害者带来更大的风险。这不仅是一个技术决策的问题,更是涉及伦理和法律责任的重大议题。企业需要平衡用户的隐私权与公共安全的需求,在确保用户信息安全的同时,也要考虑到如何有效防止犯罪行为的发生。此外,法律框架也需要与时俱进,以适应不断变化的技术环境,确保科技发展能够更好地服务于社会的整体利益。
据该女子的代理律师透露,原告方要求苹果公司改变现有做法,并向最多可能涉及2680名其他符合条件的受害者提供赔偿。这些受害者依据法律规定,每人至少有权获得15万美元的赔偿。若所有受害者均获得赔偿,苹果公司需支付的总金额或将超过12亿美元(约合87.28亿元人民币)。
类似的案件已在北卡罗来纳州发生。一名 9 岁的 CSAM 受害者指控苹果,称她通过 iCloud 链接收到陌生人发送的非法视频,并被鼓励拍摄并上传类似内容。苹果公司提出了一项驳回案件的动议,指出联邦法规第 230 条保护其免于对用户上传到 iCloud 的材料承担责任。但近期法院裁定,这一法律保护仅适用于积极内容审核的情形,可能削弱苹果的抗辩理由。
针对新诉讼,苹果发言人弗雷德·塞恩兹表示,苹果公司对儿童性虐待材料深恶痛绝,决心在保障用户隐私与安全的同时,严厉打击此类犯罪行为。为此,苹果加强了信息应用中的裸露内容检测功能,并新增了举报有害材料的功能。不过,原告及其代理律师玛格丽特·马比指出,苹果采取的措施仍显不足。
马比表示,她通过执法报告和相关文件发现,有超过80起案件涉及受害者图像以及苹果产品。其中一名分享这些图像的人是来自湾区的一名男子,其iCloud账户中存储了超过2,000张非法图片和视频。这一系列案件不仅揭示了网络犯罪的新趋势,也凸显了云服务在数据安全方面的脆弱性。尽管苹果公司已经采取了一系列措施来加强用户数据的安全保护,但这些案件依然发生,表明还需要更严格的监管和技术手段来防止此类事件的发生。此外,这也提醒公众要提高个人信息保护意识,谨慎使用云服务,以免成为犯罪分子的目标。