Deep Learning pour le texte avec PyTorch
Shubham Jain
Data Scientist
"- Gérer des séquences de longueurs variables
"
{{1}}"
"Pourquoi ?
Exemple : Détecter le sarcasme dans un tweet
\"J'adore rester coincé dans les embouteillages.\"
"`py
from torch.utils.data import Dataset, DataLoader
----CODE_GLUE---- ```py # Create a class class TextDataset(Dataset):def __init__(self, text): self.text = textdef __len__(self): return len(self.text)
----CODE_GLUE----
py
def __getitem__(self, idx):
return self.text[idx]{{5}}"
"`py
sample_tweet = \"Ce film avait un excellent scénario et un jeu d'acteur incroyable.\"
sentiment_prediction = model(sample_tweet_tensor)
"
{{1}}"
"Tweet :
\"J'ai adoré la cinématographie, détesté les dialogues. Le jeu d'acteur était exceptionnel, mais l'intrigue manquait de relief.\"
"Architecture LSTM : Porte d’entrée, porte d’oubli et porte de sortie
class LSTMModel(nn.Module):def __init__(self, input_size, hidden_size, output_size): super(LSTMModel, self).__init__() self.lstm = nn.LSTM(input_size, hidden_size, batch_first=True) self.fc = nn.Linear(hidden_size, output_size)
----CODE_GLUE----
py
def forward(self, x):
_, (hidden, _) = self.lstm(x)
output = self.fc(hidden.squeeze(0))
return output{{4}}"
"- Objet de l’e-mail :
\"Félicitations ! Vous avez gagné un voyage gratuit à Hawaï !\"
"
"
"py
class GRUModel(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
super(GRUModel, self).__init__()
self.gru = nn.GRU(input_size, hidden_size, batch_first=True)
self.fc = nn.Linear(hidden_size, output_size)
----CODE_GLUE----
py
def forward(self, x):
_, hidden = self.gru(x)
output = self.fc(hidden.squeeze(0))
return output{{2}}"
Deep Learning pour le texte avec PyTorch