很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于许多AI系统都使用有偏数据进行训练的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对许多AI系统都使用有偏数据进行训练这篇文章感兴趣的小伙伴可以一起来看看
人工智能系统仅与我们放入其中的数据一样好。错误的数据可能包含隐含的种族,性别或意识形态偏见。许多AI系统将继续使用不良数据进行训练,这将成为一个持续存在的问题。但是我们相信可以克服偏见,并且能够解决偏见的AI系统将是最成功的。
对于人类和机器而言,至关重要的原则是幸免偏见并因此防止卑视。AI系统中的偏差主要发生在数据或算法模型中。在开辟我们可以信赖的AI系统的过程中,至关重要的是使用无偏数据开辟和训练这些系统,并开辟易于解释的算法。
随着人类和AI越来越多地共同做出决策,研究人员正在研究确保人类偏见不影响用于告知这些决策的数据或算法的方法。
麻省理工学院-IBM Watson AI实验室致力于共同繁荣的努力,借鉴了AI和计算认知建模的最新发展,例如道德的契约方法,以描述人们在决策中使用的原则并确定人类的思维方式。目标是创造在决策过程中应用某些人类价值观和原则的机器。IBM科学家还设计了一个独立的偏差评估系统,可以确定AI系统的公平性。
识别和缓解AI系统中的偏见对于在人与学习机器之间建立信任至关重要。当AI系统发现,理解并指出决策中的人为矛盾时,它们还可以揭示我们偏partial,狭och和认知偏见的方式,从而使我们采取更加公正或平等的观点。在认识我们的偏见和教导我们关于共同价值观的过程中,我们可能会比AI进步更多。我们可能会改善自己。