很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于人工智能的未来是开放的这就是为什么我们需要塑造其对人类和社会的影响的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对人工智能的未来是开放的这就是为什么我们需要塑造其对人类和社会的影响这篇文章感兴趣的小伙伴可以一起来看看
人工智能(AI)提供了巨大的机会,不仅可以提高效率和降低成本,而且还可以帮助重新考虑业务并解决关键问题。然而,尽管AI拥有所有的希翼,但在各个经济体和社会中都存在同样程度的焦虑。许多人认为先进技术将带来注定和不可幸免的深刻变化。
随着AI变得越来越复杂,它将开始制定或协助对个人生活产生更大影响的决策。随着人们适应自动决策在社会中发挥的更大和更突出的作用,这将带来道德挑战。
因此,企业领导者和决策者需要认真对待这些担忧,并承担启用和应用“负责任的AI”的责任。
如果使用AI评估新工作的申请,如何确保申请人得到公正和公正的审查?潜在的员工如何对AI不易出错或基于如何培训而固有偏见充满信心?
自动化流程可能会通过我们可能不理解或无法解释的程序来“学习”导致我们可能不希翼的结果的模式。算法可能会使社会中现有的偏见和卑视永久化,这加剧了人们对实施AI缺乏信任。
例如,弗吉尼亚大学的研究人员在广泛使用的照片数据集上训练了一个AI程序,后来发现该系统随后放大了传统的性别偏见。在后来的培训中,它甚至将站在火炉旁的男人分类为女人,这是人类不会做的。
领导者需要揭示机器决策。他们的AI必须产生可解释的结果,促进算法的责任感并消除偏见。这意味着领导者需要找到方法,例如审核算法和对处理后的数据进行评估,以便发现偏差。当系统犯错误时,必须明确责任在哪里。
建立消费者对AI和自动化系统的信任将需要安全性和保障性。建立财务责任是做到这一点的一种方法,但是确保人身安全和保障是关键。
例如,最高级的讨论环绕自动驾驶汽车展开。德国于2017年通过了一项新法律,根据驾驶员或自动驾驶汽车的操纵权在驾驶员和创造商之间分配责任。在这种方法的支持下,汽车创造商表示,如果在使用“交通拥堵驾驶员”的情况下发生事故,他们将承担责任。
在旧有保险结构的背景下,此处新浮现的是考虑由汽车创造商提供服务的责任。组织可以通过阐明和进展对责任的更普遍理解来帮助解决某些问题。但是,除了建立财务责任之外,安全和安保组织还需要解决一些合理的问题,包括确保通过设计将安全性应用到自治系统中。
这包括确保对AI进行训练以“举起手”,寻求有经验的聪慧才智的人的帮助,以帮助在极端情况下做出最终决定,而不是如果对某事有51%的把握就继续进行。