Évaluation des modèles multi-sorties et pondération des pertes

Deep learning intermédiaire avec PyTorch

Michal Oleszak

Machine Learning Engineer

Évaluation du modèle

acc_alpha = Accuracy(
    task="multiclass", num_classes=30
)
acc_char = Accuracy(
    task="multiclass", num_classes=964
)


net.eval() with torch.no_grad(): for images, labels_alpha, labels_char \ in dataloader_test: out_alpha, out_char = net(images)
_, pred_alpha = torch.max(out_alpha, 1) _, pred_char = torch.max(out_char, 1)
acc_alpha(pred_alpha, labels_alpha) acc_char(pred_char, labels_char)
  • Configurer une métrique par sortie
  • Parcourir le loader de test et obtenir les sorties
  • Calculer la prédiction pour chaque sortie
  • Mettre à jour les métriques d’exactitude
  • Calculer les scores finaux d’exactitude
print(f"Alphabet: {acc_alpha.compute()}")
print(f"Character: {acc_char.compute()}")
Alphabet: 0.3166305720806122
Character: 0.24064336717128754
Deep learning intermédiaire avec PyTorch

Boucle d’entraînement multi-sorties, rappel

for epoch in range(10):
    for images, labels_alpha, labels_char \
    in dataloader_train:
        optimizer.zero_grad()
        outputs_alpha, outputs_char = net(images)
        loss_alpha = criterion(
          outputs_alpha, labels_alpha
        )
        loss_char = criterion(
          outputs_char, labels_char
        )
        loss = loss_alpha + loss_char
        loss.backward()
        optimizer.step()
  • Deux pertes : alphabet et caractères
  • Perte finale = somme des deux : loss = loss_alpha + loss_char
  • Les deux tâches de classification ont la même importance
Deep learning intermédiaire avec PyTorch

Faire varier l’importance des tâches

La classification des caractères est 2× plus importante que celle de l’alphabet

  • Approche 1 : multiplier la perte la plus importante par 2

    loss = loss_alpha + loss_char * 2
    
  • Approche 2 : attribuer des poids qui somment à 1

    loss = 0.33 * loss_alpha + 0.67 * loss_char
    
Deep learning intermédiaire avec PyTorch

Attention : pertes sur des échelles différentes

  • Les pertes doivent être sur la même échelle avant pondération et somme
  • Exemples de tâches :

    • Predire le prix d’une maison -> perte MSE
    • Prédire la qualité : faible, moyenne, élevée -> perte CrossEntropy
  • CrossEntropy est typiquement à un chiffre

  • La MSE peut atteindre des dizaines de milliers
  • Le modèle ignorerait la tâche de qualité
  • Solution : normaliser les deux pertes avant pondération et somme
    loss_price = loss_price / torch.max(loss_price)
    loss_quality = loss_quality / torch.max(loss_quality)
    loss = 0.7 * loss_price + 0.3 * loss_quality
    
Deep learning intermédiaire avec PyTorch

Passons à la pratique !

Deep learning intermédiaire avec PyTorch

Preparing Video For Download...