Introducción al aprendizaje profundo con PyTorch
Jasmin Ludolf
Senior Data Science Content Developer, DataCamp
Problema | Soluciones |
---|---|
El conjunto de datos no es lo suficientemente grande | Obtener más datos / utilizar el aumento de datos |
El modelo tiene demasiada capacidad | Reducir el tamaño del modelo / añadir abandono |
Los pesos son demasiado grandes | Decaimiento del peso |
Estrategias de recuperación ante desastres y continuidad del negocio ()
model = nn.Sequential(nn.Linear(8, 4),
nn.ReLU(),
nn.Dropout(p=0.5))
features = torch.randn((1, 8))
print(model(features))
tensor([[1.4655, 0.0000, 0.0000, 0.8456]], grad_fn=<MulBackward0>)
model.train()
para la formación y model.eval()
para desactivar el abandono durante la evaluaciónoptimizer = optim.SGD(model.parameters(), lr=0.001, weight_decay=0.0001)
weight_decay
parámetro del optimizador, normalmente ajustado a un valor pequeño (por ejemplo, 0,0001)Introducción al aprendizaje profundo con PyTorch