新经济沸点8月6日讯:苹果宣布,今年晚些,将通过软件更新的方式推出儿童色情图片监测功能。
第一,该功能将体现在“信息”应用上。当儿童收到或发出敏感图片时,照片将被自动模糊,Communication Safety 功能将警告儿童和其父母。如果儿童尝试浏览一张被标记了的敏感照片,他们也会先被警告。“信息”应用对图片的理解基于设备本地的机器学习。
第二,iOS 15 和 iPadOS 15 将开始开始监测存在 iCloud 中的照片,检查是否存在儿童性虐待材料(CSAM)。如存在,苹果将告知美国失踪和受虐儿童中心(NCMEC)。
苹果指出,这种监测方式也考虑了隐私。他们将在设备本地上对照片进行扫描,并和一套 CSAM 的图片素材进行比对。如果有符合的照片,设备将创造一个加密安全凭证,并在设备和 iCloud 同步时被上传。
苹果称该标记系统拥有“极高的准确度”,确保用户不会被错误标记。
不过,如果用户的 iCloud 功能被关闭了,苹果则无法对其进行监测。