很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于机器人辩论人类关于人工智能的危害 的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对机器人辩论人类关于人工智能的危害 这篇文章感兴趣的小伙伴可以一起来看看
一个人工智能已经讨论AI的惊险-狭义说服观众,该技术将做利大于弊。
由IBM开辟的机器人Project Debater在论证的两面都说了话,双方都有两个人的队友帮助解决了这个问题。人工智能在星期四晚上以女性女性的声音在剑桥大学联合大学的人群中交谈,并使用了事先从1100多个人类陈述中得出的论点,发表了双方的开幕词。
在主张方面,辩称人工智能带来的弊大于利,Project Debater的开场白令人毛骨悚然。它说:“人工智能会造成很多损害。”“人工智能将无法做出在道德上正确的决定,因为道德是人类独有的。”
它补充说:“人工智能公司在如何正确评估数据集和滤除偏见方面仍然缺乏专业知识。”“人工智能将承受人类的偏见,并将世代相传。”
人工智能使用一个称为“人群讲话”的应用程序来生成其论点,从而分析人们在线提交的内容。然后,Project Debater将这些主题归类为关键主题,并识别冗余-提交的内容使用不同的词语来表达相同的观点。
AI进行了连贯的辩论,但有一些失误。有时它会重复进行自己的操作(例如,在谈论AI执行平庸和重复性任务的能力时),并且它没有提供详细的示例来支持其主张。
在主张反对AI的反对派辩论中,Debater认为AI将在某些领域制造新的工作机会,并“为工作场所带来更大的效率”。
但是后来提出了一个与它的论点相反的观点:“人工智能功能可以照应患者或机器人来教学童—在这些领域,对人类的需求也不再存在。”
去年,Debater项目首次与人类争论,今年2月,一对一与冠军辩手辩论者Harish Natarajan一对一输了,后者在剑桥大学作为第三支支持AI的发言人发言。
IBM计划使用逐人群AI作为收集大量人的反馈的工具。IBM工程师Noam Slonim表示,例如,可以将其用于寻求对政策的公众意见的政府,也可以用于需要雇员提供意见的公司。
他说:“这项技术可以帮助在决策者和将要受到决策影响的人们之间建立有趣而有效的沟通渠道。”