Introduction au deep learning avec PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
$$
$$
Fonction sigmoïde :
Gradients :
$$
Softmax souffre aussi de saturation
Unité linéaire**rectifiée**(ReLU) :
f(x) = max(x, 0)
$$
Dans PyTorch :
relu = nn.ReLU()
Leaky ReLU :
$$
Dans PyTorch :
leaky_relu = nn.LeakyReLU(
negative_slope = 0.05)
Introduction au deep learning avec PyTorch