苹果高管承认扫描iCloud相册等功能引起大众困惑,还保证数据不会被利用

安全
8月13日,苹果公司软件工程高级副总裁Craig Federigh回应了公众对扫描iCloud相册等功能的质疑,他承认苹果发布新功能后的处理很糟糕,也承认这些功能引起了大众的困惑。

8月13日,苹果公司软件工程高级副总裁Craig Federigh回应了公众对扫描iCloud相册等功能的质疑,他承认苹果发布新功能后的处理很糟糕,也承认这些功能引起了大众的困惑。

Craig Federigh回应的功能是苹果在8月5日公布的儿童安全功能,它包括新版照片甄别系统(Child Sexual Abuse Material,儿童性虐待内容,简称为 "CSAM")、iMessage通信安全功能(通过iMessage通知父母孩子正在浏览的敏感内容)、更新Siri和搜索功能。

过去的两周,公众争议的焦点聚集在CSAM和iMessage通信安全这两项功能。因为CSAM在执行时会扫描用户的iCloud相册,iMessage通信安全功能则涉及对用户聊天图片的检测。

[[417887]]

苹果公司软件工程高级副总裁Craig Federigh

Craig Federigh向《华尔街日报》表示,苹果执行CSAM时设定了“多级别的审核”,保护苹果的系统,保证这些数据不会被政府或其他第三方利用。

CSAM会在用户照片上传到iCloud之前,就将其与已知CSAM的散列图像进行匹配。而检测到异常的账户将接受苹果公司的人工审查,并可能向国家失踪和受虐儿童中心(NCMEC)报告。

iMessage通信安全功能则在孩子发送或接收色情图片时发挥作用。如果孩子们通过iMessage发送或接收色情图片,他们将在观看之前收到警告,图片将被模糊处理,他们的父母也可以选择收到警告。

Craig Federigh还透露了围绕该系统保障措施的一些新细节。具体而言,只有当用户相册中与CSAM图片库匹配上的儿童色情图片达到30张时,苹果才会获取用户的账户和这些图片的具体情况。他表示苹果只会获取这些与图片库匹配的图片,不会知道用户的其他图片。

苹果将根据国家失踪和被剥削儿童中心(NCMEC)的名单检查iCloud照片,寻找与已知CSAM图片完全匹配的图片。并且,苹果是直接在用户的设备上扫描图片,不是在iCloud服务器上远程进行。

苹果此前曾表示,CASM系统只在美国推出,它将根据具体情况考虑何时在其他国家推出。苹果还告诉媒体,它将在所有国家的操作系统上发布已知CSAM的哈希数据库,但扫描功能目前只用于美国的设备。《华尔街日报》进一步澄清说,将有一个独立的审计机构来核实所涉及的图像。

责任编辑:赵宁宁 来源: FreeBuf
相关推荐

2021-08-11 10:18:21

苹果隐私加密

2021-08-24 19:01:30

苹果iCloud邮件CSAM

2022-02-09 15:04:58

iOS苹果功能

2012-11-30 09:44:25

百度云相册云计算中心

2021-09-16 14:22:06

微软WinUI 2.7InfoBadge

2021-05-11 08:52:16

iCloud苹果文稿和数据

2013-11-12 10:46:04

ChromeChrome32 be

2019-04-24 16:12:59

iOSSiriMacOS

2012-10-23 16:34:44

苹果iCloud云应用

2021-02-04 17:04:22

Python编程语言代码

2021-06-08 11:31:11

WineWaylandVulkan

2021-03-04 08:13:53

苹果iCloud谷歌相册

2022-01-25 10:34:37

微软Edge Cana侧边栏

2021-02-05 07:03:17

微软Edge浏览器

2017-09-25 14:22:26

Swift4.0正式发布添加归档

2021-07-28 11:40:31

微信借条腾讯

2009-05-12 09:03:30

微软Windows 7操作系统

2017-10-18 09:08:12

微软Win 10

2013-03-27 09:42:15

2021-07-28 14:28:54

腾讯云微信电子签
点赞
收藏

51CTO技术栈公众号