<!--go-->
“给神经网络提供输入向量,让它根据自己的参数矩阵输出对应的输出值,我们将之称为前向传播。用数学语言来描述就是这样。”
“记第L层的第i个神经元的激活值为a(l)i,参数记为行向量(·)(l)i的话,如果这一层有s个神经元,那么这一层行向量的维数就有sl+1维……”
“这个多出来的1是从哪儿来的?”周至又开始问问题了。
“因为我们要设置偏置单元。所以这一层的行向量就会是一个巨大的矩阵,它的行是S(l+1),列是Sl+1。”
“这还只是其中的一层,”周至有点明白了:“之前你说过,这种每相邻两层的神经元全部互相联接的方式,你们称为全连接。其实最终的结果,是输入层通过非线性激活函数穿透所有隐藏层之后的最终结果,也就是说,它是经过无数个矩阵叠加运算之后的结果,是吧?”
“差不多可以这样理解。”麦小苗说道:“不过需要注意的是神经网络中的权重和偏置这些参数是机器自己学习出来的,它们被称为模型参数;而神经网络一共有几层、每层隐藏层有多少节点等等,这些参数是预先指定的,这种被预先指定且在学习过程中不改变的参数被称为超参数。”
“这还只是单输出的情况。如果我们要解决多元分类输出的问题的话,运算结构就会变得更加的复杂,成为以上模型矩阵的再一次矩阵叠加。”
麦小苗有些激动,拉着周至的袖子:“回国之前,我一直担心没有人能够理解这种数学理论的优越性,只被它需要耗费的资源与投入给吓得止步不前了。要是按照部委那点拨款计划来看……肘子,真的很感谢你。”
Loading...
未加载完,尝试【刷新】or【退出阅读模式】or【关闭广告屏蔽】。
尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!
移动流量偶尔打不开,可以切换电信、联通、Wifi。
收藏网址:www.dd123.cc
(>人<;)