很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于亚马逊停止向执法部门出售面部识别的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对亚马逊停止向执法部门出售面部识别这篇文章感兴趣的小伙伴可以一起来看看
一群AI专家已经给亚马逊签署了一封公开信,要求该公司在发现偏见后停止向执法部门出售面部识别。
在一月份,AI News 报道了算法正义联盟创始人Joy Buolamwini的发现,他研究了一些世界上最流行的面部识别算法。
Buolamwini发现,大多数算法都是偏见和错误识别的,肤色较深的对象和/或女性更常见。
以下是按准确性降序排列的结果:
微软
较轻的男性(100%)
女性打火机(98.3%)
黑暗男性(94%)
深色女性(79.2%)
脸++
黑暗男性(99.3%)
男性较轻(99.2%)
女性打火机(94%)
深色女性(65.5%)
IBM公司
男性较轻(99.7%)
女性打火机(92.9%)
黑暗男性(88%)
深色女性(65.3%)
亚马逊高管对调查结果表示责备,并声称使用的准确性低于他们建议用于执法部门的准确性。
“对新技术的焦虑的答案不是进行与该服务的使用方式不一致的'测试',并通过新闻媒体来放大测试的错误和误导性结论,”亚马逊云AI总经理Matt Wood计算部门,写在一月份的博客文章中。
公开信的签字人来到了布拉姆维尼的辩护人面前,其中包括AI先驱Yoshua Bengio,他是图灵奖的最近获奖者。
他们写道:“与伍德博士的主张相反,在一个系统中发现的偏见在另一个系统中引起关注,尤其是在可能严峻影响人们生活的用例中,例如执法应用。”
尽管拥有最准确的面部识别能力,但自Buolamwini的工作以来,Microsoft对此并不中意,并进一步提高了准确性。该公司支持一项政策,要求在使用面部识别的任何地方都必须看到标志。
IBM在提高代表社会各阶层的算法的准确性方面也取得了长足的进步。今年早些时候,该公司公布了一个新的100万图像数据集,该数据集更能代表社会的多样性。
当Buolamwini重新评估IBM的算法时,评估深色男性的准确性从88%上升到99.4%,深色女性从65.3%上升到83.5%,深色女性从92.9%上升到97.6%,而深色男性则保持在97不变百分。
Buolamwini评论说:“所以,对于每个观看我的TED演讲的人说:'这不是因为物理而导致您未被发现的原因吗?您的皮肤反射率,对比度等”,在我进行研究的2017年12月至2018年公布新结果之间,物理定律没有改变。”
“所做的改变是他们将其作为优先事项。”
除了可能自动解决的社会问题(如种族概况)外,不正确的面部识别可能是生与死之间的差异。例如,最近的一项研究(PDF)发现,无人驾驶汽车在为行人观察道路时,很难检测到肤色较深的人。
每个人,不仅是AI专家,都应该向公司施加压力,以确保偏差与算法保持良好的距离。