如果我们想要机器人像我们一样思考,我们必须停止给他们所有的答案。好奇心和探索是人类智能的两个关键组成部分,深度学习根本无法提供。
在《Quanta》杂志最近的一篇文章中,作家马修赫特森描述了计算机科学家肯尼斯斯坦利的工作,他目前在优步的人工智能实验室工作。斯坦利在“神经进化”领域的开创性工作为人工智能的新范式铺平了道路,它避免了传统的基于目标的训练模式,转向只有探索和创造力的AI模型。
哈特森写道:
生物进化也是唯一产生人类智能的系统,这是很多AI研究者的终极梦想。由于生物学的历史记录,斯坦利和其他人开始相信,如果我们想要使用能够尽可能容易(甚至更好)地导航物理和社会世界的算法!-我们需要模仿自然的策略。
他们认为,与其硬编码推理规则,或者让计算机学会在特定的性能指标上拿高分,不如让大量的解决方案蓬勃发展。让他们优先考虑新奇感或兴趣,而不是走路或说话的能力。他们可能会找到一条间接的路径,一系列的垫脚石,走路说话都比那些直接寻求这些技能的人好得多。
标准的深度学习模型使用一个黑盒(一组权重和参数,最终使它们过于复杂,开发者无法单独描述),来“精简”机器学习算法,并调整它们,直到它们输出正确的数据。这不是智慧,而是希望。
如果AI能够开发自己的解决方案,并将这些参数与深度学习相结合,那么它将更接近于模仿人类级别的问题解决方案。至少斯坦利是这么认为的。
他的研究包括构建可以与深度学习系统一起工作的进化算法。本质上,他没有教AI解决问题,而是开发了一些曲折的算法来理解它们的功能。这些系统无法像正常的人工智能范式那样解决问题。他们只是走着,直到发生了什么事。值得注意的是,与传统的深度学习模型相比,它们仍然可以在不解决任何问题的情况下有效地解决很多问题。