AIGC动态欢迎阅读
原标题:拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
关键字:图像,白人,生成器,女性,男性
文章来源:机器之心
内容字数:3681字
内容摘要:
机器之心报道
编辑:杜伟AI 生成工具的偏见何时休?
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。
当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。马斯克也被系统过分矫正了。
近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。
结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成
原文链接:拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...