Evaluasi model multi-output dan pembobotan loss

Deep Learning Lanjutan dengan PyTorch

Michal Oleszak

Machine Learning Engineer

Evaluasi model

acc_alpha = Accuracy(
    task="multiclass", num_classes=30
)
acc_char = Accuracy(
    task="multiclass", num_classes=964
)


net.eval() with torch.no_grad(): for images, labels_alpha, labels_char \ in dataloader_test: out_alpha, out_char = net(images)
_, pred_alpha = torch.max(out_alpha, 1) _, pred_char = torch.max(out_char, 1)
acc_alpha(pred_alpha, labels_alpha) acc_char(pred_char, labels_char)
  • Siapkan metrik untuk tiap output
  • Iterasi loader uji dan ambil output
  • Hitung prediksi untuk tiap output
  • Perbarui metrik akurasi
  • Hitung skor akurasi akhir
print(f"Alphabet: {acc_alpha.compute()}")
print(f"Character: {acc_char.compute()}")
Alphabet: 0.3166305720806122
Character: 0.24064336717128754
Deep Learning Lanjutan dengan PyTorch

Meninjau ulang loop pelatihan multi-output

for epoch in range(10):
    for images, labels_alpha, labels_char \
    in dataloader_train:
        optimizer.zero_grad()
        outputs_alpha, outputs_char = net(images)
        loss_alpha = criterion(
          outputs_alpha, labels_alpha
        )
        loss_char = criterion(
          outputs_char, labels_char
        )
        loss = loss_alpha + loss_char
        loss.backward()
        optimizer.step()
  • Dua loss: untuk alfabet dan karakter
  • Loss akhir adalah jumlah loss alfabet dan karakter: loss = loss_alpha + loss_char
  • Kedua tugas klasifikasi dianggap sama penting
Deep Learning Lanjutan dengan PyTorch

Mengubah pentingnya tugas

Klasifikasi karakter 2× lebih penting daripada klasifikasi alfabet

  • Pendekatan 1: Skala loss yang lebih penting dengan faktor 2

    loss = loss_alpha + loss_char * 2
    
  • Pendekatan 2: Tetapkan bobot yang berjumlah 1

    loss = 0.33 * loss_alpha + 0.67 * loss_char
    
Deep Learning Lanjutan dengan PyTorch

Peringatan: loss pada skala berbeda

  • Loss harus pada skala yang sama sebelum dibobot dan dijumlahkan
  • Contoh tugas:

    • Prediksi harga rumah -> loss MSE
    • Prediksi kualitas: rendah, sedang, tinggi -> loss CrossEntropy
  • CrossEntropy biasanya satu digit

  • Loss MSE bisa mencapai puluhan ribu
  • Model akan mengabaikan tugas penilaian kualitas
  • Solusi: Normalisasi kedua loss sebelum pembobotan dan penjumlahan
    loss_price = loss_price / torch.max(loss_price)
    loss_quality = loss_quality / torch.max(loss_quality)
    loss = 0.7 * loss_price + 0.3 * loss_quality
    
Deep Learning Lanjutan dengan PyTorch

Ayo berlatih!

Deep Learning Lanjutan dengan PyTorch

Preparing Video For Download...