Deep Learning für Text mit PyTorch
Shubham Jain
Instructor

"- Verwenden Sie vorhandenes Wissen aus einer Aufgabe für eine verwandte Aufgabe
"
"
"
"
"
"
"
"
"- Bidirektionale Encoder-Repäsentationen von Transformern

texts = ["Ich liebe das!", "Das ist schrecklich.", "Erstaunliche Erfahrung!", "Nicht mein Fall."] labels = [1, 0, 1, 0]import torch from transformers import BertTokenizer, BertForSequenceClassificationtokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertForSequenceClassification.from_pretrained('bert-base-uncased', num_labels=2)inputs = tokenizer(texts, padding=True, truncation=True, return_tensors="pt", max_length=32) inputs["labels"] = torch.tensor(labels)
"`python
optimizer = torch.optim.AdamW(model.parameters(), lr=0.00001)
model.train()
----CODE_GLUE---- ```python for epoch in range(1): outputs = model(**inputs)loss = outputs.loss loss.backward()optimizer.step() optimizer.zero_grad()print(f\"Epoche: {epoch+1}, Verlust: {loss.item()}\")
out
Epoche: 1, Verlust: 0.7061821222305298{{5}}"
"`python
text = \"Ich hatte einen großartigen Tag!\"
input_eval = tokenizer(text, return_tensors=\"pt\", truncation=True,
padding=True, max_length=128)
----CODE_GLUE---- ```python outputs_eval = model(**input_eval)predictions = torch.nn.functional.softmax(outputs_eval.logits, dim=-1)predicted_label = 'positiv' if torch.argmax(predictions) > 0 else 'negativ' print(f\"Text: {text}\nSentiment: {predicted_label}\")
out
Text: Ich hatte einen großartigen Tag!
Stimmung: positiv{{5}}"
Deep Learning für Text mit PyTorch