Meta开源FACET工具,用于评估AI模型中的种族和性别偏见

[百科] 时间:2024-04-29 02:26:46 来源:蓝影头条 作者:百科 点击:160次
IT之家 9 月 2 日消息,开源Meta 公司为了缓解当前很多计算机视觉模型对女性、工估有色人种存在系统性偏见问题,具用近日推出了名为 FACET 的于评全新 AI 工具,用于识别计算机视觉系统中的型中性别种族和性别偏见。

FACET 工具目前经过 3 万张图片、含 5 万人图像的开源训练,特别增强了性别和肤色方面的工估感知,可以用于评估计算机视觉模型在各种特征。具用

FACET 工具在经过训练之后可以回答复杂问题,例如识别出对象为男性之后,型中性别可以进一步识别出滑板运动员,族和以及浅色、开源深色皮肤。工估

Meta 以 FACET 来评测该公司所开发的 DINOv2 模型与 SEERv2 模型,以及 OpenAI 的 OpenCLIP 模型,整体而言,OpenCLIP 在性别上的表现优于其它模型,而 DINOv 则在年龄与肤色上有较佳的判断力。

FACET 的开源将有助于研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏见,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。IT之家在此附上 Meta 新闻稿地址,感兴趣的用户可以深入阅读。

(责任编辑:百科)

    相关内容
    精彩推荐
    热门点击
    友情链接