收起左侧
发新帖

错把黑人视频打上“灵长类动物”标签,Facebook的AI太离谱!

时间:2021-9-6 18:59 0 970 | 复制链接 |

马上注册,结交更多好友

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  

    明敏 发自 凹非寺
    量子位 报道 | 公众号 QbitAI

观看一个以黑人为主角的视频,结果平台给出的相关推荐是:
  
是否继续观看有关灵长类动物的视频?

DSC0000.jpg



这是最近一些Facebook用户在观看一则黑人视频时,遇到的真实情况。
视频的内容其实是几个平民和警察发生争执,和“猴子或灵长类动物”毫无关系。
DSC0001.jpg



这在网上引起了轩然大波。
对此Facebook紧急致歉,称其是“不能容忍的错误”。
目前,他们正在研究这一推荐功能以“防止这种情况再次发生”。
  “我们的AI并不完美”

这件事情起源于《每日邮报》2020年6月27日发布的一个视频。
视频中有白人、黑人和警察,他们之间发生了一些争执,视频的主要人物是黑人
最近,有Facebook用户观看这则视频时发现,平台给出的推荐提示居然是:
  
是否继续观看有关灵长类动物的视频?

这让人感到有些错愕。
按照生物学定义划分,人类的确属于灵长目。
但结合一些社会情况,不少种族主义者将黑人贬低为“猴子”、“猩猩”,意图刻意将他们与“人”区分开。
DSC0002.jpg



这样的社会背景,让人不免猜测Facebook给这段视频打上“灵长类动物”标签到底是怎么一回事。
于是有人把这个视频的情况告诉了前Facebook内容设计经理Darci Groves ,看到这个情况后,Groves感到非常的震惊。
随即,她把这一情况发到了一个面向Facebook员工的产品反馈论坛中。
之后,这事引起了Facebook官方的注意。
Facebook Watch产品经理表示,这种情况是不能被容忍的,公司已经在调查问题的根本原因。
Facebook发言人Dani Lever则在一份声明中表示:
  
虽然我们在不断提升AI的水平,但是我们知道它并不完美,还有更多可以优化的地方。
我们向所有看到这则冒犯性推荐的人道歉。
AI种族歧视,不是第一次了

Facebook这次的“错误标签”,再一次把AI推上了舆论的风口浪尖。
这几年,不少科技巨头的AI都出现了存在种族偏见的负面新闻。
2015年,谷歌相册就曾把黑人照片打上黑猩猩的标签引起不少争议。
DSC0003.jpg



当时,谷歌对此“深表歉意”。
不过在2018年,《连线》杂志发现,谷歌并没有真的改正错误,只是……为图像分类算法去掉了“大猩猩gorilla”这个类别。
DSC0004.jpg



去年被CVPR 2020收录的PLUSE方法,也被人发现存在明显的种族偏见。
它是一个可以把打码的人脸修复如初的AI,结果还原的人脸,全部是白人脸
比如奥巴马这张复原图,可以说和他本人是毫无关系。

DSC0005.jpg



对亚洲脸庞的复原效果也非常不好。
DSC0006.jpg



类似的例子在AI算法中,真的不少见。
由此,AI的伦理问题也一直备受人们关注。
在把人和大猩猩弄混这事上,人类不会犯这种低级错误。为什么AI会呢?
有人认为这是一个复杂的计算机视觉问题。
  
找出图像之间相似是很容易的,但是找出为什么相似却不相关,这是个很难的问题。

DSC0007.jpg



也有人就指出这是因为AI做的工作更多是统计推理,它本身不会思考。
DSC0008.jpg



所以,就要关注训练集
有人就表示,他曾与一家大公司合作时发现,不少AI训练集中都存在偏见。
但是对于这一现象,不少团队都没有想消除歧视的想法。
DSC0009.jpg



此外,也存在训练集中包含黑人面孔太少的可能,这导致算法在识别黑人面孔时会表现不好。
当然也不排除程序员本身存在种族偏见,所以在打标签时就已经存在偏见。
参考链接:
[1]https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
[2]https://news.ycombinator.com/item?id=28415582


您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

扫码添加微信客服
快速回复 返回列表 返回顶部