人工智能本身能解决AI带来的问题吗?我把这个问题提交给IBM的Francesca Rossi和上周在巴黎全球论坛《财富》上发言的Francesca Rossi。他领导了Blue Blue在人工智能伦理方面的工作,而脸书人工智能研究实验室的负责人Antoine Bordes。
是的——至少在某些情况下,两位研究者都说。
例如,Bordes的团队正在创建基准测试,可用于训练机器学习算法自动检测Deepfake。罗西表示,在某些情况下,人工智能可以用来突出其他人工智能算法创建的模型中的潜在偏差。
尽管技术可以提供有用的工具来检测甚至纠正人工智能软件的问题,但两位科学家都强调,人们不应该自满于人类批判性判断的必要性。
“解决这个问题确实是一个过程,”罗西告诉我。“交付AI系统时,在准备部署产品时,你无法考虑这些问题。你可以在这里阅读更多关于我们讨论的内容,也可以在这里观看视频。
本周晚些时候,我去了英国剑桥,观看了IBM最新版本的“项目辩手”(Project Debater)AI帮助两队人类在200年前的剑桥联盟辩论中对决。辩论的主题是人工智能是否弊大于利。
工作原理:在辩论的一周内,一个IBM网站众筹了超过1100个论点。该软件接受了这些论点,在大约两分钟的时间内将它们归类为该主张的正反两方面,并将其提炼为每个方面的五个主题。
虽然Project Debater的聚类和聚合技能令人印象深刻,但人类辩手抢尽了风头。伯明翰大学法律和伦理学教授西尔维德拉克洛瓦(Sylvie Delacroix)认为,人工智能是一个罕见的工具例子,其设计对其道德价值至关重要。她说,“是的,人工智能真的和它所提供的数据一样好。”然而,在她看来,这潜在地赋予了人们巨大的权力。如果他们聚集在一起,将他们的数据聚合到数据信任等实体中,他们就可以夺取对AI开发和使用的大量控制权。
另一方面,亚马逊机器学习前负责人、剑桥大学教授尼尔劳伦斯(Neil Lawrence)表示,认为这项技术会造成伤害是更加谨慎的,因为这样一来,人们就会警惕潜在的危险,寻求预防措施——与帕斯卡的赌注相比,他的立场。你可以在这里阅读更多关于这场辩论的内容。