说这种系统能“学习”,是指在构建网络时,设计者只需选定神经元模型(如激活函数的公式)和网络结构(如一共几层,每层多少神经元)等,而将各个连接上的权值作为待定“参数”。在网络的“训练”过程中,一个“学习算法”根据已知数据对这些参数反复进行调整,直到整个网络达到某种预定的标准为止。这时我们就说这个网络“学会了”如何识别、区分或应对这种输入信号。如我在《机器是如何被骗并骗人的?》中所解释的,这种网络就是个通用函数拟合器。
这种网络结构在三十年前就已经以“PDP模型”的名称广为流传了,只是那时的网络一般只有一个中间层。“深度学习”的贡献就是增加其“深度”,即中间层的数量。更多的中间层使得系统的行为更复杂,这是显而易见的,但以前无法有效的训练这种系统。深度神经网络成功的原因公认有三个:(1)大量的训练数据(否则无法确定那么多参数),(2)改进了的学习算法(否则无法有效利用这些数据),(3)强有力的硬件支持(否则无法足够快地完成计算)。
【免责声明】本文仅代表作者个人观点,与165平板网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件内容有任何疑问或质疑,请联系本网将迅速给您回应并做处理。