苹果推出新功能保护儿童,在不打破加密的情况下识别敏感内容

Apple

在 iOS 18.2 中,苹果正在添加一项新功能,该功能复活了其停止的 CSAM 扫描计划背后的部分意图——这一次,没有破坏端到端加密或提供政府后门。该公司在澳大利亚率先推出的通信安全功能的扩展使用设备上的机器学习来检测和模糊裸露的内容,添加警告并要求在用户继续之前进行确认。如果孩子未满 13 岁,他们无法在不输入设备的屏幕时间密码的情况下继续。

如果设备的机器学习检测到裸露内容,该功能会自动模糊照片或视频,显示内容可能很敏感的警告,并提供获取帮助的方法。这些选项包括离开对话或群组讨论、阻止该人并访问在线安全资源。

该功能还显示一条信息,向孩子保证不查看内容或离开聊天没关系。还可以选择向父母或监护人发送消息。如果孩子已满 13 岁,他们仍然可以在收到这些警告后确认他们想继续——重复提醒,即选择退出是没问题的,还有进一步的帮助可用。据《卫报》报道,其中还包括向苹果举报图像和视频的选项。

该功能会分析 iPhone 和 iPad 上的短信、隔空投送、联系人物海报(在电话或联系人应用程序中)以及 FaceTime 视频信息中的照片和视频。此外,如果孩子选择与第三方应用程序共享照片或视频,它还会扫描“一些第三方应用程序”。

支持的应用程序在其他设备上略有不同。在 Mac 上,如果用户选择通过第三方应用共享内容,它会扫描消息和一些第三方应用。在 Apple Watch 上,它涵盖消息、联系人海报和 FaceTime 视频信息。最后,在 Vision Pro 上,该功能会扫描消息、隔空投送和一些第三方应用(符合上面提到的相同条件)。

该功能需要 iOS 18、iPadOS 18、macOS Sequoia 或 visionOS 2。

《卫报》报道称,苹果计划在澳大利亚试用后在全球范围内扩展该功能。该公司可能出于特定原因选择“土澳”:该国将推出新法规,要求大型科技公司监管儿童性虐待和恐怖内容。作为新规则的一部分,澳大利亚同意补充条款,即仅在“技术可行”的情况下才强制执行,省略了打破端到端加密和损害安全的要求。公司需要在年底之前遵守这一规定。

用户隐私和安全性是苹果臭名昭著的监控 CSAM 尝试引起争议的核心。2021 年,它准备采用一个系统来扫描在线性虐待图片,然后将这些图片发送给人工审阅者。(在苹果因抵制联邦调查局试图解锁属于恐怖分子的 iPhone 而闻名后,这让人感到震惊。)隐私和安全专家认为,该功能将为独裁政权打开后门,让他们在没有任何剥削材料的情况下监视其公民。次年,苹果放弃了这项功能,(间接地)导致了今天宣布的更平衡的儿童安全功能。

一旦在全球范围内推出,您可以在“设置”>“屏幕时间”>“通信安全”下激活此功能,然后打开该选项。自 iOS 17 以来,该部分已默认激活。

原创文章,作者:星阁,如若转载,请注明出处:http://www.xgrl.net/n/202410260944164491.shtml

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注