date: 2024-04-06
title: Activation Function
status: DONE
author:
- AllenYGY
tags:
- DeepLearning
- ActivationFunction
- NOTE
created: 2024-04-06T16:42
updated: 2024-05-12T23:15
publish: True
Activation Function
Requirement**
- 增加非线性表达 使得神经网络可以拟合任意函数
- 连续可导的函数 可以使用梯度下降法进行参数更新
- 定义域是 可以映射所有实数
- 单调递增的函数 不改变输入的响应状态
Unsaturated function
- Rectified Linear Unit 修正线性单元 RELU
- RELU Leaky ReLU, Parametric ReLU, ...
Sigmoid
-
非零均值函数
-
导数最大值
- 导致每层梯度被动缩小 4 倍
- 导致开始的几层梯度几乎不变
- 就是梯度消失现象 gradient vanishing problem
tanh
ReLU (Rectified Linear Unit)