深度学习

基础知识和各种网络结构实战 ...

pytorch实现几种常用激活函数

前言

pytorch实现

常用激活函数


一、Relu和sigmoid、tanh

import torch
from torch.autograd import Variable
import matplotlib.pyplot as plt
#-----------------------------------------------------------------------------------------------------------------------
input= torch.linspace(-10,10,200)#-10到10中取200个点
input = Variable(input)#tensor转为Variable
X = input.numpy()#Variable转为numpy
#-----------------------------------------------------------------------------------------------------------------------
#定义激活函数
y_relu = torch.relu(input).data.numpy()
y_sigmoid =torch.sigmoid(input).data.numpy()
y_tanh = torch.tanh(input).data.numpy()
#-----------------------------------------------------------------------------------------------------------------------
plt.figure(1, figsize=(10, 8))
plt.subplot(221)
plt.plot(X, y_relu, c='red', label='relu')
plt.legend(loc='best')
plt.subplot(222)
plt.plot(X, y_sigmoid, c='black', label='sigmoid')
plt.legend(loc='best')
plt.subplot(223)
plt.plot(X, y_tanh, c='blue', label='tanh')
plt.legend(loc='best')
plt.show()
#-----------------------------------------------------------------------------------------------------------------------

Note:#Variable是对tensor的一种封装,作用与tensor一样,但它都包括data\grad\creator三个属性
画图结果为:
在这里插入图片描述

总结

期待大家和我交流,留言或者私信,一起学习,一起进步!

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐