人工智能已经开始以一种无所不在、不可见的方式塑造我们的生活。在其新纪录片《人工智能时代》中,FRONTLINE研究了这一前景,并危及这项技术。招聘经理,法院,执法部门和医院都在部署AI系统,有时他们甚至不知道被筛选人的情况。尽管这些系统最初被称赞为比人更客观,但很快就发现算法也有偏差。
这是一个问题,麻省理工学院的研究生研究员Joy Buolamwini了解第一手资料。她成立了算法正义联盟来吸引人们的注意。今年早些时候,她在国会听证会上就面部识别技术对民权的影响作证。
“算法偏差的一个主要问题是,你可能不知道它会发生,”Buolamwini告诉FRONTLINE。我们告诉她她是如何遇到算法偏差的,她的研究以及她认为公众需要知道的内容。
采访经过了编辑,以确保长度和清晰度。
当她第一次遇到算法偏差时。
我第一次遇到人脸检测这个技术难题,其实是在佐治亚理工大学读本科的时候,当时我正在研究机器人。这个机器人的想法是看我能不能和我玩捉迷藏。如果你的机器人看不到你,我的机器人也看不到我,那躲猫猫就真的不行了。为了完成我的项目,我借了室友的面子。她的皮肤比我的浅。…那是我第一次真正使用面部分析技术,并发现它对我的作用不同于对其他人的作用。…
我继续做了很多事情,成为了麻省理工的研究生。我开始从事使用面部分析技术和面部检测的项目。所以,我的一个项目叫做Aspire Mirror。你照镜子,相机检测你的脸,然后一只狮子会出现在你身上,或者你可能是一个受启发的人.
一直没检测过脸,感觉很压抑。那么,当你对程序感到沮丧时,你该怎么办呢?你调试。我开始试图找到一种方法让它工作。我居然在手上画了一张脸,然后系统检测到了我手掌上的脸。我当时想,“等一下,等一下。如果我刚刚在手掌上画的脸可以被检测到,那么现在就有可能了。”所以我环顾办公室,白色口罩就在那里。所以我想,“不可能!但为什么不呢?”
我拿起白色口罩戴上。当我戴上白色面具时,那是瞬间的。我的意思是,它的象征意义我并没有忘记。这太荒谬了。系统可以检测到不是真人的白色口罩,但不一定能检测到我的脸。所以这是我真正开始思考的时候,“好吧,让我们更深入地了解这些系统中发生了什么。”…