Inisialisasi layer dan transfer learning

Pengantar Deep Learning dengan PyTorch

Jasmin Ludolf

Senior Data Science Content Developer, DataCamp

Inisialisasi layer

import torch.nn as nn

layer = nn.Linear(64, 128)
print(layer.weight.min(), layer.weight.max())
(tensor(-0.1250, grad_fn=<MinBackward1>), tensor(0.1250, grad_fn=<MaxBackward1>))

$$

  • Bobot layer diinisialisasi ke nilai kecil
  • Menjaga input dan bobot kecil membuat output stabil
Pengantar Deep Learning dengan PyTorch

Inisialisasi layer

import torch.nn as nn

layer = nn.Linear(64, 128)
nn.init.uniform_(layer.weight)

print(layer.weight.min(), layer.weight.max())
(tensor(0.0002, grad_fn=<MinBackward1>), tensor(1.0000, grad_fn=<MaxBackward1>))
Pengantar Deep Learning dengan PyTorch

Transfer learning

  • Menggunakan kembali model terlatih pada tugas pertama untuk tugas serupa
    • Melatih model pada gaji data scientist AS
    • Gunakan bobotnya untuk melatih pada gaji Eropa

$$

import torch

layer = nn.Linear(64, 128)
torch.save(layer, 'layer.pth')

new_layer = torch.load('layer.pth')
Pengantar Deep Learning dengan PyTorch

Fine-tuning

  • Salah satu bentuk transfer learning
    • Learning rate lebih kecil
    • Latih sebagian jaringan (sebagian lain kita bekukan)
    • Praktik umum: bekukan layer awal dan fine-tune layer dekat output
import torch.nn as nn

model = nn.Sequential(nn.Linear(64, 128),
                      nn.Linear(128, 256))

for name, param in model.named_parameters():
    if name == '0.weight':
        param.requires_grad = False
Pengantar Deep Learning dengan PyTorch

Ayo berlatih!

Pengantar Deep Learning dengan PyTorch

Preparing Video For Download...