Deep Learning für Text mit PyTorch
Shubham Jain
Data Scientist
"- Verarbeitung von Sequenzen unterschiedlicher Längen
"
{{1}}"
"Warum?
Beispiel: Erkennung von Sarkasmus in einem Tweet
\"Ich liebe es einfach, im Stau zu stehen.\"
"`py
from torch.utils.data import Dataset, DataLoader
----CODE_GLUE---- ```py # Create a class class TextDataset(Dataset):def __init__(self, text): self.text = textdef __len__(self): return len(self.text)
----CODE_GLUE----
py
def __getitem__(self, idx):
return self.text[idx]{{5}}"
"`py
sample_tweet = \"This movie had a great plot and amazing acting.\"
sentiment_prediction = model(sample_tweet_tensor)
"
{{1}}"
"Tweet:
\"Die Kameraführung geliebt, den Dialog gehasst. Die schauspielerische Leistung war außergewöhnlich, aber die Handlung blieb flach.\"
"LSTM-Architektur: Eingangstor, Vergessenstor und Ausgangstor
class LSTMModel(nn.Module):def __init__(self, input_size, hidden_size, output_size): super(LSTMModel, self).__init__() self.lstm = nn.LSTM(input_size, hidden_size, batch_first=True) self.fc = nn.Linear(hidden_size, output_size)
----CODE_GLUE----
py
def forward(self, x):
_, (hidden, _) = self.lstm(x)
output = self.fc(hidden.squeeze(0))
return output{{4}}"
"- E-Mail-Betreff:
\"Herzlichen Glückwunsch! Sie haben eine kostenlose Reise nach Hawaii gewonnen!\"
"
"
"py
class GRUModel(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
super(GRUModel, self).__init__()
self.gru = nn.GRU(input_size, hidden_size, batch_first=True)
self.fc = nn.Linear(hidden_size, output_size)
----CODE_GLUE----
py
def forward(self, x):
_, hidden = self.gru(x)
output = self.fc(hidden.squeeze(0))
return output{{2}}"
Deep Learning für Text mit PyTorch