pytorch实现几种常用激活函数
深度学习基础知识和各种网络结构实战...pytorch实现几种常用激活函数深度学习前言一、Relu和sigmoid、tanh总结前言pytorch实现常用激活函数一、Relu和sigmoid、tanhimport torchfrom torch.autograd import Variableimport matplotlib.pyplot as plt#---------------------
·
深度学习
基础知识和各种网络结构实战 ...pytorch实现几种常用激活函数
前言
pytorch实现一、Relu和sigmoid、tanh
import torch
from torch.autograd import Variable
import matplotlib.pyplot as plt
#-----------------------------------------------------------------------------------------------------------------------
input= torch.linspace(-10,10,200)#-10到10中取200个点
input = Variable(input)#tensor转为Variable
X = input.numpy()#Variable转为numpy
#-----------------------------------------------------------------------------------------------------------------------
#定义激活函数
y_relu = torch.relu(input).data.numpy()
y_sigmoid =torch.sigmoid(input).data.numpy()
y_tanh = torch.tanh(input).data.numpy()
#-----------------------------------------------------------------------------------------------------------------------
plt.figure(1, figsize=(10, 8))
plt.subplot(221)
plt.plot(X, y_relu, c='red', label='relu')
plt.legend(loc='best')
plt.subplot(222)
plt.plot(X, y_sigmoid, c='black', label='sigmoid')
plt.legend(loc='best')
plt.subplot(223)
plt.plot(X, y_tanh, c='blue', label='tanh')
plt.legend(loc='best')
plt.show()
#-----------------------------------------------------------------------------------------------------------------------
Note:#Variable是对tensor的一种封装,作用与tensor一样,但它都包括data\grad\creator三个属性
画图结果为:
总结
期待大家和我交流,留言或者私信,一起学习,一起进步!
更多推荐
所有评论(0)