由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Military版 - 对抗儿童情色 苹果重拳排查个人手机上图片的是与非
进入Military版参与讨论
1 (共1页)
M*********g
发帖数: 1
1
美国苹果公司宣布加大力度保护儿童,扫描和排查该品牌手机用户上传到云端的照片是
否包含儿童性虐内容,但此举引发一些人对隐私权侵犯的担忧。https://t.co/
RBBDZRpGFH
— BBC News 中文 (@bbcchinese) August 7, 2021
苹果公司宣布在美国的手机用户上排查儿童性虐材料(child sexual abuse material
,简称CSAM)新系统的细节。在图片被储存在云端图片库之前,这项技术将能搜寻与已
知的CSAM图片匹配。
早在2020年1月,苹果高级隐私官员简·霍瓦特(Jane Horvath)就证实,苹果将扫描用
户上传到云端的照片,寻找儿童性侵图片。
苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手
机用户上报给执法机关。
已经有人对担心这项技术可侵犯隐私权。一些专家甚至担心,这种技术有可能被集权政
府用来监视其公民。他们担心技术可以被扩展到扫描一些保密的手机任容,甚至政治言
论等。
苹果表示,将于晚些时候推出的iOS 和 iPadOS(平板电脑)新版操作系统将拥有“新
的加密软件,以帮助限制CSAM的在线传播,同时其设计也考虑了保护用户隐私”。
工作原理
BBC北美科技事务记者詹姆斯‧克莱顿(James Clayton)说,该系统的工作原理
是将用户手机的图片与美国国家失踪和受虐儿童中心( US National Center for
Missing and Exploited Children 简称NCMEC)以及其他儿童安全组织汇总的已知儿童
性虐图片数据库相比较。
这些图像然后被转换成散列(hashes,也有音译为哈希或杂凑)形式,即可以与苹果设备
上图像“匹配”的数字代码。
苹果表示,该技术还将能捕捉到经过编辑、但相似版本的原图。
“准确度高”
苹果说,在图片被存储到云端之前,这种技术会自动把图片与已知的CSAM散列进行扫描
处理对比。据悉,这一技术的准确性极高,并确保每一客户账户的出错率每年不超过万
亿分之一。
苹果表示,如果发现匹配他们将人工手动审核每一份报告,给与证实。之后将采取措施
关闭有问题客户的账号,并报告给法律部门处理。据介绍,同现有技术相比,新技术提
供了“显著的”隐私优势。
苹果表示,只有当用户云端图片账户中有多张已知CSAM图片时才会引起关注,而这样做
是为了更好的保护儿童。
另据报道,包括微软、谷歌和脸书在内的其他科技公司也分享了已知的儿童性侵图片的
散列清单。
隐私担忧
尽管这样,一些隐私专家仍对此发声表示担忧。
美国约翰霍普金斯大学安全研究员格林表示,不论苹果的长远计划是什么,他们都发出
了一个明确信号,即他们认为建立一个监测和扫描用户手机中违禁内容系统是安全的。
他还表示,至于最后结果是对还是错几乎无关紧要。关键是这将打开闸门 - 各国政府
将会要求每个人都这样做。
1 (共1页)
进入Military版参与讨论