苹果因未能实施计划中的iCloud儿童性虐待材料(CSAM)检测系统而被起诉。诉讼指控苹果未采取有效措施限制相关内容传播,导致受害者不断经历创伤。此前,苹果于2021年宣布该检测系统设计,但在隐私及安全问题争议下取消了相关计划。据称,涉及受害者可能多达2,680人。苹果表示,正在积极研发保护儿童的创新技术,同时维护用户隐私与安全。此案引发了有关科技公司在保护儿童与隐私之间平衡的广泛讨论。
[较早]苹果计划2027年迎来“产品复兴”,折叠iPhone、AI眼镜、家用机器人齐登场
[最近]iOS 26新增动态储存保留功能 iPhone低存储用户再也不怕系统更新失败
[较早]iOS 26引入通话筛选、翻译聊天、照片3D化等一系列重磅新功能
[较早]Siri尴尬依旧:WWDC 2025恐难解决苹果AI困局