儿童安全组织Thorn与Hive合作推出新型AI工具,可检测未知的儿童性侵害内容(CSAM),扩大在线平台的保护能力。该工具结合机器学习算法,提升了标记新型CSAM的精准度,同时保持人类审查监督。虽然当前尚未应对AI生成CSAM,但双方正研发相应解决方案,推动与AI企业合作以限制此类内容的生成,从而实现全方位的保护战略。
[较早]苹果因取消iCloud CSAM检测系统遭起诉
[较早]研究揭示AI生成不雅图片的性别差异,女性议员成为热门目标
[较早]专评2024年选举中AI的应用:危机未至,潜力初显
[较早]Meta报告:AI内容在各国大选相关虚假信息中占比不足1%