很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于人工智能的三大转变的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对人工智能的三大转变这篇文章感兴趣的小伙伴可以一起来看看
几乎每个新的一天都会在人工智能领域带来令人振奋的消息。但是这些新闻推动了哪些更大的方向趋势?除了公告和宣传之外,AI真的在进展吗?
在本文中,我不想将重点放在遥远,含糊的关于AI的希翼和愿望上,而是集中在不那么遥远的未来中的一些具体进展。下文概述的趋势已经开始以现实世界的研究和应用形式浮现。这些工作领域代表了一些主题,我相信这些主题将在AI关键开辟的未来时间表中记录为故意义的突破。
AI社区早就知道,我们最成功的方法(例如深度学习)在数学和计算上都很复杂。将这些方法与当前技术一起使用会消耗大量的处理资源和高成本。反过来,这限制了可以在何处以及如何自由地应用这些技术。但是,较廉价的培训技术正在抢救。重要的是要了解,通常由摩尔定律驱动的成本节省和速度提高与下面讨论的算法效率类型完全不同。尽管摩尔定律承诺每两到三年将晶体管数量增加一倍,从而使处理能力提高一倍,但算法上的突破通常可以带来即时效率,效率要高出几个数量级。
轻量级神经网络的进展是一个有前途的领域,轻量级神经网络的确切含义是:更小,更快地训练网络,该网络可以达到与它们大得多的表亲几乎相同的精度,但是其大小和训练成本却很小。由SparkCognition的首席科学家Bruce Porter博士领导的研究表明,尽管仅使用大型结构所需的十分之一的计算能力,但在网络安全应用中,轻量级神经网络仍可以与常规的深层网络相匹配。
稀疏学习是另一种新兴技术,具有将深度网络的训练速度提高3.5到12倍的潜力。另外,北卡罗莱纳州立大学的研究人员表明,通过利用训练数据集中图像子段的相似性,他们可以将网络训练所需的时间和计算能力潜在地减少60%以上。所有这些都不会牺牲准确性。
这绝不是致力于减少训练深度网络的计算负担的大量工作的完整清单。但是即使是这样的一瞥,也表明在不久的将来可能会带来更高效的方法,这些方法将使我们能够与大型复杂网络的决策能力相抗衡,而不会花费相同的计算资源或降低准确性。