Introducción al aprendizaje profundo con PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
$$
$$
Función sigmoide:
Gradientes:
$$
La función softmax también sufre saturación
Unidad lineal rectificada o Rectified Linear Unit (ReLU):
f(x) = max(x, 0)
$$
En PyTorch:
relu = nn.ReLU()
Leaky ReLu:
$$
En PyTorch:
leaky_relu = nn.LeakyReLU(
negative_slope = 0.05)
Introducción al aprendizaje profundo con PyTorch