Gefeliciteerd!

Transformermodels met PyTorch

James Chapman

Curriculum Manager, DataCamp

Hoofdstuk 1

model = nn.Transformer(
    d_model=1536,
    nhead=8,
    num_encoder_layers=6,
    num_decoder_layers=6
)
class InputEmbeddings(nn.Module): ...
class PositionalEncoding(nn.Module): ...
class MultiHeadAttention(nn.Module): ...

De transformer-architectuur zoals getoond in de paper Attention Is All You Need.

Transformermodels met PyTorch

Alleen-encoder transformer

Architectuur van alleen-encoder transformer

Alleen-decoder transformer

Architectuur van alleen-decoder transformer

Transformermodels met PyTorch

Hoofdstuk 2 - Encoder-decoder transformer

Oorspronkelijke transformer-architectuur

Transformermodels met PyTorch

Wat nu?

Transformermodels met PyTorch

Laten we oefenen!

Transformermodels met PyTorch

Preparing Video For Download...