Deep Learning für Text mit PyTorch
Shubham Jain
Instructor
"- Hugging Face Transformers: Bibliothek vortrainierter Modelle
"
{{1}}"
"GPT2LMHeadModel:
"GPT2Tokenizer:
import torch from transformers import GPT2Tokenizer, GPT2LMHeadModeltokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2')seed_text = "Once upon a time"input_ids = tokenizer.encode(seed_text, return_tensors='pt')
output = model.generate(
)
output = model.generate(input_ids, max_length=40,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
no_repeat_ngram_size=2,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
no_repeat_ngram_size=2,
pad_token_id=tokenizer.eos_token_id)
"python
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
out
Generierter Text: Es war einmal, da war die Welt ein Ort von großer Schönheit
und großer Gefahr. Die Welt der Götter war der Ort, an dem die großen Götter
geboren wurden und an dem sie leben sollten.{{2}}"
"- t5-small: Text-to-Text Transfer Transformer
import torch from transformers import T5Tokenizer, T5ForConditionalGenerationtokenizer = T5Tokenizer.from_pretrained(\"t5-small\") model = T5ForConditionalGeneration.from_pretrained(\"t5-small\")input_prompt = \"translate English to French: 'Hallo, wie geht es dir?'\"input_ids = tokenizer.encode(input_prompt, return_tensors=\"pt\")
----CODE_GLUE----
python
output = model.generate(input_ids, max_length=100){{6}}"
"`python
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
----CODE_GLUE----
```python
print(\"Generated text:\",generated_text)
out
Generierter Text:
\"Hallo, wie geht es Ihnen?\"{{2}}"
"- Viele existieren!
Deep Learning für Text mit PyTorch