Introdução ao Aprendizado Profundo com o PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
$$

$$

Função sigmoide:
Gradientes:
$$
A função softmax também sofre com a saturação

Rectified Linear Unit (ReLU):
f(x) = max(x, 0)$$
No PyTorch:
relu = nn.ReLU()

Leaky ReLu:
$$
No PyTorch:
leaky_relu = nn.LeakyReLU(
negative_slope = 0.05)

Introdução ao Aprendizado Profundo com o PyTorch