PyTorch ile Deep Learning'e Giriş
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
Stochastic Gradient Descent (SGD) optimizörü
sgd = optim.SGD(model.parameters(), lr=0.01, momentum=0.95)



Bu bir konveks fonksiyon.

Bu bir konveks olmayan fonksiyon.

lr = 0.01 momentum = 0, 100 adım sonra bulunan minimum: x = -1.23, y = -0.14
lr = 0.01 momentum = 0.9, 100 adım sonra bulunan minimum: x = 0.92, y = -2.04
$$
| Öğrenme oranı | Momentum |
|---|---|
| Adım boyutunu kontrol eder | Ataleti kontrol eder |
| Çok yüksek → zayıf performans | Yerel minimumdan kaçmaya yardım eder |
| Çok düşük → yavaş eğitim | Çok küçük → optimizör sıkışır |
| Tipik aralık: 0.01 ($10^{-2}$) ve 0.0001 ($10^{-4}$) | Tipik aralık: 0.85–0.99 |
PyTorch ile Deep Learning'e Giriş