Einführung in Deep Learning mit PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
Problem | Lösungen |
---|---|
Der Datensatz ist nicht groß genug | Mehr Daten erhalten / Datenerweiterung nutzen |
Das Modell hat zu viel Kapazität | Modellgröße verkleinern / Dropout hinzufügen |
Die Gewichte sind zu groß | Gewichtsabnahme |
Strategien:
model = nn.Sequential(nn.Linear(8, 4),
nn.ReLU(),
nn.Dropout(p=0.5))
features = torch.randn((1, 8))
print(model(features))
tensor([[1.4655, 0.0000, 0.0000, 0.8456]], grad_fn=<MulBackward0>)
model.train()
für das Training und model.eval()
, um das Dropout während der Evaluierung zu verhindern.optimizer = optim.SGD(model.parameters(), lr=0.001, weight_decay=0.0001)
weight_decay
Parameter im Optimierer, der in der Regel auf einen kleinen Wert eingestellt ist (z. B. 0,0001)Einführung in Deep Learning mit PyTorch