导读 Apple 宣布了更多有关《金融时报》报道的内容,并透露了 iMessage 中的新工具,警告儿童有关色情照片的信息。这些新功能将在今年晚些时
Apple 宣布了更多有关《金融时报》报道的内容,并透露了 iMessage 中的新工具,警告儿童有关色情照片的信息。这些新功能将在今年晚些时候作为 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新推出。
苹果计划扫描存储在 iPhone 和 iCloud 上的照片,寻找虐待儿童的图像。新系统可以帮助执法部门进行刑事调查,但可能会导致法律和政府对用户数据的需求增加。
英国《金融时报》称,该系统名为“neuralMatch”,“如果它认为检测到非法图像,将主动提醒一组人工审核人员,然后如果可以核实材料,他们将联系执法部门”。NeuroMatch 使用来自国家失踪与受虐儿童中心的 200,000 张图像进行训练,将首先在推出。照片将被散列并与已知的儿童性虐待图像数据库进行比较。
“据知情人士透露,在上传到 iCloud 的每张照片都会得到一张‘安全凭证’,说明是否可疑,”英国《金融时报》称。“一旦一定数量的照片被标记为可疑,Apple 就会对所有可疑照片进行解密,如果明显违法,则将其转交给有关当局。”
约翰霍普金斯大学教授和密码学家马修格林周三晚上在 Twitter 上对该系统表示担忧。“这种工具可以帮助在人们的手机中查找儿童色情内容,”格林说。“但想象一下,它在一个威权政府的手中能做什么?”