基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization
基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization -- 本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。
·
本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49405199
本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。
一、BatchNormalization
keras.layers.normalization.BatchNormalization(epsilon=1e-6, weights=None)
将前一层的激活输出按照数据batch进行归一化。
inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)
outputshape: 同input shape一样。
参数:
- epsilon :small float>0,Fuzz parameter。
- weights:初始化权值。含有2个numpy arrays的list,其shape是[(input_shape,), (input_shape,)]
本小节参考文献:
参考资料:
更多推荐
已为社区贡献1条内容
所有评论(0)