Einführung in Deep Learning mit PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
$$
$$
Sigmoid-Funktion:
Steigungen:
$$
Auch die Softmax-Funktion leidet unter Sättigung
Rectified Linear Unit (ReLU)
f(x) = max(x, 0)
$$
In PyTorch:
relu = nn.ReLU()
Leaky ReLU:
$$
In PyTorch:
leaky_relu = nn.LeakyReLU(
negative_slope = 0.05)
Einführung in Deep Learning mit PyTorch