-深度学习读取大量“教师数据”,找到输入变量和输出变量之间的关系。如果我们知道这种关系,那么当我们输入新的数据时,我们就可以预测输出结果。为什么人类不能理解这个过程?
主要有两个因素。定性和定量分析。数量问题很简单。参数移动在深度学习内部:因为(参数信息,在系统内部移动)太大,很难把大量直观的数据和人的复杂联系起来,讲故事。现在很多人预测超过1亿个参数的输出。嗯,大概有一亿人会说话,我不知道。这基本上发生了。
-就大量变量而言,我认为你到目前为止已经处理了统计分析中的大量变量。
时至今日,即使有1000或2000个输入变量,统计分析的趋势仍然是选择许多真正需要预测的变量。因为我专门缩小范围,可以看到选中的变量,得到“这个变量很重要”之类的解释。如果我们把第20天的30个变量放长一点看,就可以把第10天的人的直觉和认知联系起来。
-有没有缩小对深度学习预测有用的变量?
这似乎很难。由于深度学习是参数和变量之间复杂的因果关系,因此不容易确定应该缩小哪个范围。实际上,举个例子,即使有一亿个参数,也可能有一些参数对输出真正有效。但是,似乎很难知道应该缩小哪个范围。
——所以我觉得一开始就不需要那么多变量。
如果只使用有用的变量和参数,这是非常容易的,但正如我所说,很难确定需要什么。由于这种先验约简是不可能的,深度学习将创建并运行一个包含不必要变量和参数的冗余系统。至少在实验中,已经证明这可以提高预测的准确性。另一方面,什么样的数据从一开始就应该变量较少,目前还没有完全搞清楚。我认为这是未来研究的一个很有前途的领域。
-如果你知道不确定意味着什么?
简而言之,这就是“深”,即它有一个深层次的结构。更何况数据转换是在数据输入层和输出层之间的“中间层”(*)中多次重复的。我们又说了,我们摆脱了人类的直觉,去了一个只有机器知道的世界。
*中间层(隐藏层):深度学习由输入数据的“输入层”、输入数据反复变换组合的“中间层”和输出数据的“输出层”组成。据说中间层越多,精度越高,但计算需要时间。