Perceptron
1957
- 模型:
- 参数学习:错误驱动在线学习算法
- 对于
- 感知机收敛性:,若 可分,则两类感知机权重更新不超过
神经元
- 神经元
- 净输入:
- 活性值:
- 激活函数:
激活函数
- Sigmoid 型函数:两端饱和函数
- Logistic:
- Tanh:
- 计算开销较大
- hard-logistic
- hard-Tanh
- ReLU
- 计算高效
- 生物学合理性:单侧抑制、宽兴奋边界
- 非零中心化:偏置偏移
- 死亡 ReLU 问题
- LeakyReLU
- 带参数 ReLU,对于第 个神经元:PReLU
- Exponential Linear Unit: ELU
- 近似零中心化
- Softplus
- Swish
- GELU 为高斯累积分布函数
- Maxout
- 输入为向量