很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于在开辟AI最佳实践时请关注这三个方面的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对在开辟AI最佳实践时请关注这三个方面这篇文章感兴趣的小伙伴可以一起来看看
专家表示,希翼采纳和开辟负责任地使用人工智能(AI)的最佳实践的金融机构应该关注三个方面:可解释性,偏见和多样性。
一项新的TD Bank Group对1,200名加拿大人的调查发现,大多数加拿大人(72%)对使用AI的公司感到中意,如果这意味着他们将获得更好和更个性化的服务,但68%的人承认他们不了解这项技术足以了解风险。除了对加拿大人对人工智能的态度进行调查之外,运输署还聘请了来自金融服务,技术,金融科技,学术界以及公共和非营利组织的专家,参与圆桌讨论,以便更好地了解金融服务中与人工智能相关的风险。
该调查结果发表在9月12日加拿大经济俱乐部活动公布的负责人工智能金融服务报告中。该报告确定了三个重点领域,因为金融机构关注人工智能的未来进展:
可解释性 - 人工智能专家和企业领导者应该如何处理技术的固有局限性,因为它与解释AI模型如何得出结论有关偏见 - 操纵偏见并重新审视人工智能第一世界的透明度,公平性和问责制的概念
多样性 - 促进多元化和包容性在人工智能采纳的各个层面都应发挥的作用,从执行领导到构建AI模型的团队,再到用于决策的数据。
圆桌会议分析了未来状态情景,其中介绍了AI导致客户意外后果的情况。它发现,治理人员和工程师之间或公司与客户之间可能存在的沟通障碍可以与AI中的“可解释性”联系起来 - 或者AI系统如何得出结论。
建议包括,在解决可解释性时,公司应实施与其模型一起进展的流程和标准,并不断测试不一致性。专家还表示,技术专家,政府和企业领导者需要“明确并同意理解AI模型的技术能力和局限性,以便环绕可解释性,透明度和问责制设定切合实际的期望。”
对于偏见,专家指出,它可能在不同的环境和不同的人身上意味着不同的东西。一般来说,这种担忧源于人类的偏见,这可能导致不公平的待遇或卑视,但也会导致统计偏差,这在AI模型中很实用。“圆桌会议的参与者指出,当从数据中删除一个特征 - 例如性别,年龄或种族 - 以消除有偏见的结果时,机器学习模型通常会为同一特征创建代理。”
最后,圆桌会议的与会者反映了与人工智能的采纳和实施有关的多样性和包容性。以下领域被确定为组织需要考虑的关键因素:
建立多元化的AI团队 - 从工程师到治理人员,团队应该代表他们所服务的客户对代表性数据集的需求 - 选择数据集来训练AI模型时的多样性和表示问题,以及AI系统服务的人员必须在数据中表示
加拿大可以领导 - 通过多元文化社会和劳动力,加拿大有机会在促进人工智能领域的多样性和包容性方面在全球舞台上发挥主导作用。
当被问及他们对公司如何使用人工智能的重要因素的看法时,受访者表示如下:操纵他们的数据使用方式(70%),使用技术的透明度(55%),以及使用AI做出的决策很容易解释和理解(28%)。