Introduction au deep learning avec PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
Problème | Solutions |
---|---|
L’ensemble de données n’est pas suffisamment grand | Obtenir plus de données / utiliser l'augmentation des données |
Le modèle a une capacité trop élevée | Réduction de la taille du modèle / ajout d’une couche d’exclusion |
Les poids sont trop importants | Décroissance des poids |
Stratégies :
model = nn.Sequential(nn.Linear(8, 4),
nn.ReLU(),
nn.Dropout(p=0.5))
features = torch.randn((1, 8))
print(model(features))
tensor([[1.4655, 0.0000, 0.0000, 0.8456]], grad_fn=<MulBackward0>)
model.train()
pour l’entraînement, model.eval()
pour l’évaluationoptimizer = optim.SGD(model.parameters(), lr=0.001, weight_decay=0.0001)
weight_decay
dans l’optimiseur, généralement fixé à une petite valeur (par exemple, 0,0001).Introduction au deep learning avec PyTorch