Ottimizzare i modelli text-to-speech

Modelli multi-modali con Hugging Face

James Chapman

Curriculum Manager, DataCamp

Perché il fine-tuning del text-to-speech

 

  • Imparare suoni in nuove lingue e dialetti
  • Applicare a nuovi contesti

Es.: grande modello inglese per pretraining generale ⇏ parlato italiano realistico

vignetta con fumetti inglese e italiano

Modelli multi-modali con Hugging Face

Perché il fine-tuning del text-to-speech

Schema di come uno speaker embedding si inserisce in una pipeline di generazione vocale

  • Speaker embedding + feature del modello TTS → modello generativo
  • Nuovi speaker embedding da soli non bastano senza fine-tuning
Modelli multi-modali con Hugging Face

Preparare un dataset audio

VoxPopuli dataset: parlato trascritto in 18 lingue dal Parlamento UE

from datasets import load_dataset
dataset = load_dataset("facebook/voxpopuli", "it", split="train", 
                       trust_remote_code=True)
print(dataset.features)
['audio', 'raw_text', 'normalized_text', 'gender', 'speaker_id', ... ]
  • Serve pre-processare l'audio + aggiungere speaker embedding:
speaker_model = EncoderClassifier.from_hparams(source="speechbrain/spkrec-xvect-voxceleb", 
                                       savedir="pretrained_models/spkrec-xvect-voxceleb")
Modelli multi-modali con Hugging Face

Preprocessing audio

from transformers import SpeechT5Processor
processor = SpeechT5Processor.from_pretrained("microsoft/speecht5_tts")


def prepare_dataset(example): audio = example["audio"] example = processor(text=example["normalized_text"], audio_target=audio["array"], sampling_rate=audio["sampling_rate"], return_attention_mask=False)
example["labels"] = example["labels"][0]
with torch.no_grad(): speaker_embeddings = speaker_model.encode_batch(torch.tensor(audio["array"])) speaker_embeddings = torch.nn.functional.normalize(speaker_embeddings, dim=2) example["speaker_embeddings"] = speaker_embeddings.squeeze().cpu().numpy() return example
dataset = dataset.map(prepare_dataset)
Modelli multi-modali con Hugging Face

Parametri di training

from transformers import Seq2SeqTrainingArguments


training_args = Seq2SeqTrainingArguments( per_device_train_batch_size=4,
gradient_accumulation_steps=8,
learning_rate=1e-5,
warmup_steps=500,
label_names=["labels"],
data_collator=data_collator )
Modelli multi-modali con Hugging Face

Mettere tutto insieme

model = SpeechT5ForTextToSpeech.from_pretrained("microsoft/speecht5_tts")
processor = SpeechT5Processor.from_pretrained("microsoft/speecht5_tts")
vocoder = SpeechT5HifiGan.from_pretrained("microsoft/speecht5_hifigan")

Trainer:

trainer = Seq2SeqTrainer(args=training_args, model=model,
    train_dataset=dataset["train"], eval_dataset=dataset["test"],
                         tokenizer=processor)

Avvia il training: trainer.train()

Modelli multi-modali con Hugging Face

Usare il nuovo modello

text = "se sono italiano posso cantare l'opera lirica"


speaker_embedding = torch.tensor(dataset[5]["speaker_embeddings"]).unsqueeze(0)
inputs = processor(text=text, return_tensors="pt")
speech = model.generate_speech(inputs["input_ids"], speaker_embedding, vocoder=vocoder)
make_spectrogram(speech)
Modelli multi-modali con Hugging Face

Usare il nuovo modello

Spettrogramma di parlato in italiano

Modelli multi-modali con Hugging Face

Ayo berlatih!

Modelli multi-modali con Hugging Face

Preparing Video For Download...