Deep Learning pour le texte avec PyTorch
Shubham Jain
Instructor
"- Hugging Face Transformers : bibliothèque de modèles pré-entraînés
"
{{1}}"
"GPT2LMHeadModel :
"GPT2Tokenizer :
import torch from transformers import GPT2Tokenizer, GPT2LMHeadModeltokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2')seed_text = "Il était une fois"input_ids = tokenizer.encode(seed_text, return_tensors='pt')
output = model.generate(
)
output = model.generate(input_ids, max_length=40,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
no_repeat_ngram_size=2,
)
output = model.generate(input_ids, max_length=40, temperature=0.7,
no_repeat_ngram_size=2,
pad_token_id=tokenizer.eos_token_id)
"python
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
out
Texte généré : Il était une fois, le monde était un lieu de grande beauté
et de grand danger. Le monde des dieux était l'endroit où les grands dieux étaient
nés, et où ils devaient vivre.{{2}}"
"- t5-small: Text-to-Text Transfer Transformer
import torch from transformers import T5Tokenizer, T5ForConditionalGenerationtokenizer = T5Tokenizer.from_pretrained(\"t5-small\") model = T5ForConditionalGeneration.from_pretrained(\"t5-small\")input_prompt = \"translate English to French: 'Bonjour, comment ça va ?'\"input_ids = tokenizer.encode(input_prompt, return_tensors=\"pt\")
----CODE_GLUE----
python
output = model.generate(input_ids, max_length=100){{6}}"
"`python
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
----CODE_GLUE----
```python
print(\"Texte généré :\",generated_text)
out
Texte généré :
\"Bonjour, comment allez-vous ?\"{{2}}"
"- Beaucoup existent !
Deep Learning pour le texte avec PyTorch