Bewertung von Multi-Output-Modellen und Loss-Gewichtung

Deep Learning mit PyTorch für Fortgeschrittene

Michal Oleszak

Machine Learning Engineer

Modellbewertung

acc_alpha = Accuracy(
    task="multiclass", num_classes=30
)
acc_char = Accuracy(
    task="multiclass", num_classes=964
)


net.eval() with torch.no_grad(): for images, labels_alpha, labels_char \ in dataloader_test: out_alpha, out_char = net(images)
_, pred_alpha = torch.max(out_alpha, 1) _, pred_char = torch.max(out_char, 1)
acc_alpha(pred_alpha, labels_alpha) acc_char(pred_char, labels_char)
  • Metrik pro Output einrichten
  • Über Test-Loader iterieren und Outputs holen
  • Vorhersage pro Output berechnen
  • Accuracy-Metriken updaten
  • Finale Accuracy-Werte berechnen
print(f"Alphabet: {acc_alpha.compute()}")
print(f"Character: {acc_char.compute()}")
Alphabet: 0.3166305720806122
Character: 0.24064336717128754
Deep Learning mit PyTorch für Fortgeschrittene

Multi-Output-Trainingsloop: Rückblick

for epoch in range(10):
    for images, labels_alpha, labels_char \
    in dataloader_train:
        optimizer.zero_grad()
        outputs_alpha, outputs_char = net(images)
        loss_alpha = criterion(
          outputs_alpha, labels_alpha
        )
        loss_char = criterion(
          outputs_char, labels_char
        )
        loss = loss_alpha + loss_char
        loss.backward()
        optimizer.step()
  • Zwei Losses: für Alphabet und Zeichen
  • Gesamtloss als Summe: loss = loss_alpha + loss_char
  • Beide Klassifikationsaufgaben gleich wichtig
Deep Learning mit PyTorch für Fortgeschrittene

Unterschiedliche Aufgabengewichtung

Zeichenklassifikation 2× wichtiger als Alphabetklassifikation

  • Ansatz 1: Wichtiger Loss mit Faktor 2 skalieren

    loss = loss_alpha + loss_char * 2
    
  • Ansatz 2: Gewichte, die zu 1 summieren

    loss = 0.33 * loss_alpha + 0.67 * loss_char
    
Deep Learning mit PyTorch für Fortgeschrittene

Achtung: Losses auf unterschiedlichen Skalen

  • Losses müssen vor dem Gewichten auf derselben Skala sein
  • Beispielaufgaben:

    • Hauspreis vorhersagen -> MSE-Loss
    • Qualität: niedrig, mittel, hoch -> CrossEntropy-Loss
  • CrossEntropy liegt meist im einstelligen Bereich

  • MSE kann zehntausende erreichen
  • Modell würde Qualitätsaufgabe ignorieren
  • Lösung: Beide Losses normalisieren, dann gewichten und addieren
    loss_price = loss_price / torch.max(loss_price)
    loss_quality = loss_quality / torch.max(loss_quality)
    loss = 0.7 * loss_price + 0.3 * loss_quality
    
Deep Learning mit PyTorch für Fortgeschrittene

Lass uns üben!

Deep Learning mit PyTorch für Fortgeschrittene

Preparing Video For Download...