Rona Wang说:“种族偏见是人工智能工具中反复出现的问题。我从人工智能照片生成器或编辑器那里得不到任何可用的女性结果,所以我现在不得不放弃新的头像 LinkedIn 个人资料照片!” 尽管她并不是唯一一个被图像生成器变白或得到种族主义输出的人,但这起事件再次引起了人工智能造成混乱的人工关注,即使公司急于取代人类工人,暴露变白这个软件仍然存在严重的亚洲不完善和不准确性。
Playground AI 的女性首席执行官 Suhail Doshi 对此作出了回应,并解释了系统的头像不完美性。虽然这并不是唯一一起因图像生成器而引发种族偏见的事件,但这个例子再次显示了人工智能在取代人类工作时的问题。这种不完善且不准确的软件在训练中很容易出现种族偏见。
(责任编辑:综合)