高级激活层
高级激活层是将几种常用的激活函数连同其常用调整参数一起组合形成了专用的激活层。高级激活层主要有以下这些。
ELU
指数线性单元,格式为keras.layers.ELU(alpha=1.0)
,其中参数alpha
为负因子的尺度。ELU的函数定义为:
$$ f(x)=\left\lbrace \begin{array}{lcl} \alpha \times (e^x - 1) & & x < 0 \\ x & & x \ge 0 \end{array} \right. $$
ReLU
对应激活函数relu
,格式为keras.layers.ReLU(max_value=None, negative_slope=0.0, threshold=0.0)
,其中max_value
为最大输出值(\(v_{max}\)),nagetive_slope
为负斜率系数(\(\alpha\)),threshold
为激活阈值(\(\theta\))。ReLU的函数定义为:
$$ f(x)=\left\lbrace \begin{array}{lcl} v_{max} & & x \ge v_{max} \\ x & & \theta \le x < v_{max} \\ \alpha \times (x - \theta) & & x < \theta \end{array} \right. $$
LeakyReLU
带泄露的ReLU激活,当神经元未激活时,仍允许赋予一个很小的梯度值。格式为keras.layers.LeakyReLU(alpha=0.3)
,其中参数alpha
为负斜率系数,必须取\(\geq 0\)的值。LeakyReLU的函数定义为:
$$ f(x)=\left\lbrace \begin{array}{lcl} \alpha \times x & & x < 0 \\ x & & x \ge 0 \end{array} \right. $$