深度学习——最常见的三种激活函数

末鹿安然 提交于 2020-02-06 20:11:46

深度学习——最常见的三种激活函数

1 tanh激活函数

1.1 函数原型

tanh(x)=exexex+extanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}}

1.2 函数图像

在这里插入图片描述

1.3 函数导数

tanh(x)=1tanh2(x)tanh'(x) = 1 - tanh^2(x)

1.4 代码实现

import numpy as np
def tanh(x):
    return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))

2 Sigmoid激活函数

2.1 函数原型

sigmoid(x)=11+exsigmoid(x) = \frac{1}{1+e^{-x}}

2.2 函数图像

图像来源:https://www.jianshu.com/p/ebde8a644e25
在这里插入图片描述

2.3 函数导数

sigmoid(x)=sigmoid(x)(1sigmoid(x))sigmoid'(x)= sigmoid(x)*(1-sigmoid(x))

2.4 代码实现

def sigmoid(x):
	return 1/(1+exp(-x))

3 Relu激活函数

3.1 函数原型

Relu(x)=max(0,x)Relu(x)=max(0,x)

3.2 函数图像

在这里插入图片描述

3.3 函数导数

Relu(x)={0x<=01x>0Relu'(x)=\{ \begin{matrix} 0,x<= 0\\ 1,x > 0 \end{matrix}

3.4 代码实现

def relu(x):
	return (np.abs(x) + x) / 2.0
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!