Transformers pour le traitement du texte

Deep Learning pour le texte avec PyTorch

Shubham Jain

Instructor

Pourquoi utiliser les transformers pour le traitement du texte ?

"Logo Transformers

  • Rapidité
  • Comprendre la relation entre les mots, quelle que soit la distance
  • Réponse semblable à celle d’un humain {{3}}"
Deep Learning pour le texte avec PyTorch

Composantes d'un transformeur

"- Encodeur : Traite les données d'entrée

  • Décodeur : Reconstruit la sortie
  • Réseaux neuronaux à propagation avant : Affinent la compréhension
  • Encodage positionnel : Garantit que l'ordre compte
  • Attention multi-tête : Capture plusieurs entrées ou sentiments {{5}}"
Deep Learning pour le texte avec PyTorch

"Préparation de nos données : séparation en ensembles d’entraînement et de test"

sentences = ["J'adore ce produit", "C'est terrible", 
             "Ça pourrait être mieux", "C'est le meilleur"]
labels = [1, 0, 0, 1]

train_sentences = sentences[:3] train_labels = labels[:3] test_sentences = sentences[3:] test_labels = labels[3:]
Deep Learning pour le texte avec PyTorch

Construction du modèle transformeur

"`python class TransformerEncoder(nn.Module):


----CODE_GLUE----
```python
    def __init__(self, embed_size, heads, num_layers, dropout):
        super(TransformerEncoder, self).__init__()

self.encoder = nn.TransformerEncoder( nn.TransformerEncoderLayer(d_model=embed_size, nhead=heads), num_layers=num_layers)
self.fc = nn.Linear(embed_size, 2)
def forward(self, x):
x = self.encoder(x)
x = x.mean(dim=1)
return self.fc(x)
model = TransformerEncoder(embed_size=512, heads=8, num_layers=3, dropout=0.5)

----CODE_GLUE---- python optimizer = optim.Adam(model.parameters(), lr=0.001) criterion = nn.CrossEntropyLoss(){{10}}"

Deep Learning pour le texte avec PyTorch

Former les transformeurs

"python for epoch in range(5):

----CODE_GLUE---- python for sentence, label in zip(train_sentences, train_labels): tokens = sentence.split()

Deep Learning pour le texte avec PyTorch

Prédire les transformers

"`python def predict(sentence): model.eval()


----CODE_GLUE----
```python
    with torch.no_grad():

tokens = sentence.split() data = torch.stack([token_embeddings.get(token, torch.rand((1, 512))) for token in tokens], dim=1)
output = model(data)
predicted = torch.argmax(output, dim=1)

----CODE_GLUE---- python return \"Positif\" if predicted.item() == 1 else \"Négatif\"{{6}}"

Deep Learning pour le texte avec PyTorch

Prédiction sur un nouveau texte

sample_sentence = "Ce produit pourrait être meilleur"
print(f"'{sample_sentence}' est {predict(sample_sentence)}")
'Ce produit pourrait être meilleur' est Négatif
Deep Learning pour le texte avec PyTorch

Passons à la pratique !

Deep Learning pour le texte avec PyTorch

Preparing Video For Download...