据悉,在苹果详细阐述其计划之前,有关CSAM倡议的消息就已泄露,安全研究人员已经开始对苹果的新图像扫描协议在未来可能如何使用表示担忧。
眼下,苹果正在使用NeuralHash系统,其将已知的CSAM图像跟用户iPhone上的照片进行比较然后再上传到iCloud上。如果匹配,照片就会跟加密安全凭证一起上传,当达到一定阈值时就会触发审查,该审查会检查该名用户的设备上是否有CSAM。
目前,苹果正在使用其图像扫描和匹配技术来寻找虐待儿童的情况,但研究人员担心,在未来,它可能会被用于扫描其他更令人担忧的图像如抗议活动中的反政府标语。
来自约翰霍普金斯大学的密文研究员Matthew Green在一系列推文中指出,CSAM扫描是一个非常糟糕的主意,因为在未来,它可能会扩展到扫描端到端加密的照片,而不仅仅是上传到iCloud的内容。对于儿童,苹果正在实施一项单独的扫描功能,其直接在端到端加密的iMessages中寻找色情内容。
Green还对苹果计划使用的哈希提出了担忧,因为这里面可能存在“冲突”,即某人发送一个跟CSAM共享哈希的无害文件进而可能导致错误标记。
对此,苹果方面表示,其扫描技术具有极高的准确性以确保账号不会被错误标记,在用户的iCloud账号被禁用并向NCMEC发送报告之前报告会被手动审查。
Green认为,苹果的实施将会推动其他科技公司也采用类似的技术。他写道:“这将打破障碍。政府会要求每个人都这么做。”他把这项技术比作是“专制政权部署的工具”。
同样值得注意的是,苹果在推出新的CSAM倡议之前就已经扫描了一些儿童虐待图片的内容。2020年,苹果首席隐私官Jane Horvath表示,苹果使用筛查技术寻找非法图像,如果检测到CSAM的证据就会封掉该账号。
此前,苹果曾针对隐私政策做了相关的更改,并在官网上发布了一则免责声明,表示苹果方面将会扫描 iCloud 图库来排查与虐待儿童相关的内容。其实在苹果之前,许多大公司如 Facebook、Twitter 以及 Google 等,都已经使用了微软开发的 PhotoDNA 工具,通过比对图库来进行图片的检查。
目前,苹果面临的较大的难关就是如何在维护法律和保护隐私之间无得平衡,虽然排查虐待儿童行为的这个初衷是正当的,但是关于能否扫描大量用户的隐私数据来进行排查就是一个比较复杂的话题了。
极牛网精选文章《苹果计划扫描iCloud中儿童性虐待照片,专家担忧用户隐私》文中所述为作者独立观点,不代表极牛网立场。如若转载请注明出处:https://geeknb.com/15786.html