Einführung in Deep Learning mit PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
| Problem | Lösungen |
|---|---|
| Der Datensatz ist nicht groß genug | Mehr Daten erhalten / Datenerweiterung nutzen |
| Das Modell hat zu viel Kapazität | Modellgröße verkleinern / Dropout hinzufügen |
| Die Gewichte sind zu groß | Gewichtsabnahme |
Strategien:
model = nn.Sequential(nn.Linear(8, 4),
nn.ReLU(),
nn.Dropout(p=0.5))
features = torch.randn((1, 8))
print(model(features))
tensor([[1.4655, 0.0000, 0.0000, 0.8456]], grad_fn=<MulBackward0>)
model.train() für das Training und model.eval(), um das Dropout während der Evaluierung zu verhindern.optimizer = optim.SGD(model.parameters(), lr=0.001, weight_decay=0.0001)
weight_decay Parameter im Optimierer, der in der Regel auf einen kleinen Wert eingestellt ist (z. B. 0,0001)
Einführung in Deep Learning mit PyTorch