Schaalbare AI-modellen met PyTorch Lightning
Sergiy Tkachuk
Director, GenAI Productivity
Onafhankelijk van Python
Efficiënt in productie
Voorbeelden:

Onafhankelijk van Python
Efficiënt in productie
Voorbeelden:

Twee conversiemethoden:
torch.jit.trace: volgt uitvoering met voorbeeldinputstorch.jit.script: compileert door Python-code te analyserenWanneer gebruiken:
trace voor eenvoudige modellenscript voor modellen met controlflow (bijv. loops)import torch import torch.nn as nnclass SimpleModel(nn.Module): def forward(self, x): return x * 2model = SimpleModel() scripted_model = torch.jit.script(model)
$$
torch.jit.save: sla het gescripte model op in een bestandtorch.jit.load: laad het model voor inference$$
# Save the model
torch.jit.save(scripted_mod,"model.pt")
# Load the model
loaded_model=torch.jit.load("model.pt")
Voorbeeldinput:
[1.0, 2.0, 3.0]Voorbeeldoutput:
[2.0, 4.0, 6.0]# Perform inference input_arr = [1.0, 2.0, 3.0] input_tensor = torch.tensor(input_arr)output = loaded_model(input_tensor) print(output)
$$
torch.jit.trace: werkt voor statische modellentorch.jit.script: ondersteunt dynamische controlflowtorch.jit.save: slaat het gescripte model optorch.jit.load: laadt opnieuw voor inferentieSchaalbare AI-modellen met PyTorch Lightning