发布者认证信息(营业执照和身份证)未完善,请登录后完善信息登录
 终于明了普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目 - 最新消息 - 客集网
Hi,你好,欢迎来到客集网
  • 产品
  • 求购
  • 公司
  • 展会
  • 招商
  • 资讯
  • 解梦
当前位置: 首页 » 资讯 » 化工能源 找商家、找信息优选VIP,安全更可靠!
终于明了普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目 - 最新消息
发布日期:2023-09-07 06:09:36  浏览次数:3

8 月 23 日上午消息,近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称 CSAM)筛查系统具有一定危险性,因为他们曾构建过一个类似的系统。

此前,苹果公司出于保护儿童免受色情内容侵袭,宣布推出三项保护政策。包括:机器筛查 Messages 信息,当孩子收到色情图片时,图片会变得模糊,并且 Messages 应用程序会显示一条警告;儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri 和搜索功能改进,人们可询问 Siri 如何报告儿童性虐待内容或性剥削,Siri 将告诉用户在哪可以汇报给有关部门。

普林斯顿大学这两位学者说,他们曾经的一个项目工作原理与 Apple 的方法完全相同,但他们很快发现了明显的问题。

助理教授 Jonathan Mayer 和研究生研究员 Anunay Kulshrestha 在《华盛顿邮报》的报道中提到,他们与苹果有着同样的善意目标:

“我们的研究项目始于两年前,作为一个实验系统,用于识别端到端加密在线服务中的 CSAM。作为安全研究人员,我们知道端到端加密的意义,它可以保护数据免受第三方访问。但我们也对 CSAM 在加密平台上激增感到震惊。而且我们担心,在线服务不愿意在没有额外工具来对抗 CSAM 的情况下加密。

我们试图探索一种可能的中间立场,即在线服务可以识别有害内容,同时保留端到端加密。这个概念很简单:如果有人分享了与已知有害内容数据库相匹配的内容,该服务就会收到警报。如果一个人分享了无关的内容,该系统就不会筛查到。人们无法阅读数据库或了解内容是否匹配,因为这些信息可以揭示执法方法并帮助犯罪分子逃避检测。”

在停止项目之前,他们已经做出一个工作原型:

经过多次错误的启动,我们构建了一个工作原型。但是我们遇到了一个明显的问题。

我们的系统可以很容易地重新用于监视和审查。筛查设计不限于特定类别的内容。例如,外国政府可以强制要求提供服务,将那些分享不受欢迎的政治言论的人找出来。

两人表示,他们对苹果公司决定推出这项服务感到困惑,因为目前未能妥善解决他们提出的风险:和我们一样,Apple 的动机是保护儿童。它的系统在技术上比我们的更高效、更有能力。但是我们很快发现,对于我们提出的难题,Apple 几乎没有答案。

这也是苹果这些动作引发争议的原因:虽然他们表示不会允许这种滥用,但政府可以依法强制公司这样做。

VIP企业最新发布
最新VIP企业
背景开启

客集网是一个开放的平台,信息全部为用户自行注册发布!并不代表本网赞同其观点或证实其内容的真实性,需用户自行承担信息的真实性,图片及其他资源的版权责任! 本站不承担此类作品侵权行为的直接责任及连带责任。

如若本网有任何内容侵犯您的权益,请联系 QQ: 1130861724

网站首页 | 信息删除 | 付款方式 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 (c)2014-2024 Rights Reserved 鄂公网安备42018502007153 SITEMAPS 联系我们 | 鄂ICP备14015623号-21

返回顶部