pytorch中激活函数ReLU

拜拜、爱过 提交于 2020-02-05 07:31:59

nn.ReLU(inplace=True)

Parameters
inplace – can optionally do the operation in-place. Default: False

ReLU(x)=max(0,x)
在这里插入图片描述
参数inplace=True:
inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出

注: 产生的计算结果不会有影响。利用in-place=True计算可以节省内(显)存,同时还可以省去反复申请和释放内存的时间。但是会对原变量覆盖,只要不带来错误就用。

m = nn.ReLU()
n = nn.ReLU(inplace=True)
input = autograd.Variable(torch.randn(5))
inputTemp = input
print(input)
print(m(input))
print(input,'\n')
print(inputTemp)
print(n(inputTemp))
print(inputTemp)

#运行结果
tensor([ 0.2750, -0.1387, -0.6451, -0.8800,  0.4505])
tensor([0.2750, 0.0000, 0.0000, 0.0000, 0.4505])
tensor([ 0.2750, -0.1387, -0.6451, -0.8800,  0.4505]) 

tensor([ 0.2750, -0.1387, -0.6451, -0.8800,  0.4505])
tensor([0.2750, 0.0000, 0.0000, 0.0000, 0.4505])
tensor([0.2750, 0.0000, 0.0000, 0.0000, 0.4505])

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!