Sony发布FHIBE公平人像基准:覆盖81国近2000名受试者,直指AI偏见“隐蔽地带”
Sony AI 发布“公平以人为中心图像基准”(FHIBE),以10,318张图像、1,981名独立受试者和来自81个国家/地区的多元样本,配套人口学与外观特征、环境因素、相机参数等精细标注,用于检测目标识别、分割、检测与验证、视觉问答等多类计算机视觉任务中的不公平与不稳定。FHIBE坚持“经同意、可撤回”的采集机制,补上过往“抓取式”数据集在合规与伦理上的缺口;研究团队还对比了27个常用人像评测数据集,指出行业在采集来源、撤稿风险与标注透明度方面仍有明显短板。更重要的是,FHIBE把“有无偏见”的判断推进到“偏见从何而来、如何修复”的诊断层:例如,一些模型在“She/Her/Hers”代词群体上准确率更低,与发型多样性相关的图像差异存在关联;在中性职业提问中,个别模型会将特定代词或族源群体错误地与“犯罪/不良职业”等刻板印象绑定;针对特定肤色或祖源群体,出现有害(toxic)回答的概率也更高。作为评测集而非训练集,FHIBE可用于建立公平性基线、回归测试与风控审查清单,并为法规合规(如面向高风险场景的偏见评估)与工程治理(数据收集、标注与模型改进)提供可落地的参考路径。
支持率>95%