苹果将​​扫描iCloud寻找包含针对儿童暴力的图像。

作者照片
隐身

众所周知,苹果非常关心生态系统中设备传输的数据的机密性,并保护它们免受窥探。然而,这并不意味着用户不必遵守与伦理、道德甚至人性相关的规则。

苹果公司宣布将很快发布一项技术,能够扫描用户存储在电脑中的所有图像。 icloud 并识别包含针对儿童的性虐待的照片。儿童性虐待材料 (CSAM)。
苹果将​​于今年年底推出这项技术,很可能是针对有限数量的用户的试点版本。

如果您问自己“数据的机密性在哪里?”,就会发现我们收到的所有内容都是内容 视频 /照片 它是通过加密协议完成的。以及在iCloud中的数据存储也已加密,但是此类服务的提供商具有数据加密密钥。在这里,我们不仅说苹果。 Microsoft,Google和其他云存储服务也是如此。

如果要求在法律诉讼中要求,可以解密并检查存储的数据,或者是否违反了法律。例如关于针对儿童和妇女的暴力事实的事实。

为了保持用户的机密性,该公司基于一种称为Neuralhash的新技术,该技术将在iCloud中扫描照片,并通过将其与数据库中的其他图像进行比较,并确定那些包含暴力的人。
它有点类似于面部识别或者物体、动物等元素的智能识别。

该技术将能够扫描和验证通过 iPhone、iPad 或 Mac 设备拍摄或传输的照片,即使它们会发生变化。

自2004年以来,我就对Windows和Linux操作系统以及2010年成为Apple Universe的粉丝写了《激情》。目前,我为Mac,iPhone,iPad,Apple Watch,AirPods和其他Apple设备撰写教程。

留下你的评论