Evaluatie van multi-outputmodellen en loss-wegingsfactoren

Gevorderde Deep Learning met PyTorch

Michal Oleszak

Machine Learning Engineer

Model-evaluatie

acc_alpha = Accuracy(
    task="multiclass", num_classes=30
)
acc_char = Accuracy(
    task="multiclass", num_classes=964
)


net.eval() with torch.no_grad(): for images, labels_alpha, labels_char \ in dataloader_test: out_alpha, out_char = net(images)
_, pred_alpha = torch.max(out_alpha, 1) _, pred_char = torch.max(out_char, 1)
acc_alpha(pred_alpha, labels_alpha) acc_char(pred_char, labels_char)
  • Meting per output instellen
  • Testloader itereren en outputs ophalen
  • Voorspelling per output berekenen
  • Nauwkeurigheidsmetric bijwerken
  • Eindaccuracies berekenen
print(f"Alphabet: {acc_alpha.compute()}")
print(f"Character: {acc_char.compute()}")
Alphabet: 0.3166305720806122
Character: 0.24064336717128754
Gevorderde Deep Learning met PyTorch

Trainingslus met meerdere outputs: herzien

for epoch in range(10):
    for images, labels_alpha, labels_char \
    in dataloader_train:
        optimizer.zero_grad()
        outputs_alpha, outputs_char = net(images)
        loss_alpha = criterion(
          outputs_alpha, labels_alpha
        )
        loss_char = criterion(
          outputs_char, labels_char
        )
        loss = loss_alpha + loss_char
        loss.backward()
        optimizer.step()
  • Twee losses: voor alfabetten en karakters
  • Eind-loss is de som van beide: loss = loss_alpha + loss_char
  • Beide classificatietaken even belangrijk
Gevorderde Deep Learning met PyTorch

Variërende taakbelang

Karakterclassificatie 2× belangrijker dan alfabetclassificatie

  • Aanpak 1: schaal de belangrijkere loss met factor 2

    loss = loss_alpha + loss_char * 2
    
  • Aanpak 2: geef gewichten die optellen tot 1

    loss = 0.33 * loss_alpha + 0.67 * loss_char
    
Gevorderde Deep Learning met PyTorch

Let op: losses op verschillende schalen

  • Losses moeten op dezelfde schaal staan vóór wegen en optellen
  • Voorbeeldtaken:

    • Huisprijs voorspellen -> MSE-loss
    • Kwaliteit voorspellen: laag, midden, hoog -> CrossEntropy-loss
  • CrossEntropy zit meestal in de enkelcijfers

  • MSE kan tienduizenden bereiken
  • Model negeert dan de kwaliteitstaak
  • Oplossing: normaliseer beide losses vóór wegen en optellen
    loss_price = loss_price / torch.max(loss_price)
    loss_quality = loss_quality / torch.max(loss_quality)
    loss = 0.7 * loss_price + 0.3 * loss_quality
    
Gevorderde Deep Learning met PyTorch

Laten we oefenen!

Gevorderde Deep Learning met PyTorch

Preparing Video For Download...