Fijn afstemmen van text-to-speech-modellen

Multi-modale modellen met Hugging Face

James Chapman

Curriculum Manager, DataCamp

Doel van fijn afstemmen van text-to-speech

 

  • Leer klanken in nieuwe talen en dialecten
  • Pas toe in nieuwe contexten

Bijv. groot Engels algemeen pretrainingsmodel ⇏ realistische Italiaanse spraak

cartoon Engelse en Italiaanse spraakballonnen

Multi-modale modellen met Hugging Face

Doel van fijn afstemmen van text-to-speech

Diagram van hoe een spraakinbedding past in een spraaksynthesepijplijn

  • Speaker embedding + TTS-functies → generatief model
  • Nieuwe speaker embeddings zijn op zichzelf niet genoeg zonder fine-tuning
Multi-modale modellen met Hugging Face

Een audiodataset voorbereiden

VoxPopuli-dataset: getranscribeerde spraak voor 18 talen uit het EU-parlement

from datasets import load_dataset
dataset = load_dataset("facebook/voxpopuli", "it", split="train", 
                       trust_remote_code=True)
print(dataset.features)
['audio', 'raw_text', 'normalized_text', 'gender', 'speaker_id', ... ]
  • Audio preprocessen + spraakinbedding toevoegen:
speaker_model = EncoderClassifier.from_hparams(source="speechbrain/spkrec-xvect-voxceleb", 
                                       savedir="pretrained_models/spkrec-xvect-voxceleb")
Multi-modale modellen met Hugging Face

Audiopreprocessing

from transformers import SpeechT5Processor
processor = SpeechT5Processor.from_pretrained("microsoft/speecht5_tts")


def prepare_dataset(example): audio = example["audio"] example = processor(text=example["normalized_text"], audio_target=audio["array"], sampling_rate=audio["sampling_rate"], return_attention_mask=False)
example["labels"] = example["labels"][0]
with torch.no_grad(): speaker_embeddings = speaker_model.encode_batch(torch.tensor(audio["array"])) speaker_embeddings = torch.nn.functional.normalize(speaker_embeddings, dim=2) example["speaker_embeddings"] = speaker_embeddings.squeeze().cpu().numpy() return example
dataset = dataset.map(prepare_dataset)
Multi-modale modellen met Hugging Face

Trainingsargumenten

from transformers import Seq2SeqTrainingArguments


training_args = Seq2SeqTrainingArguments( per_device_train_batch_size=4,
gradient_accumulation_steps=8,
learning_rate=1e-5,
warmup_steps=500,
label_names=["labels"],
data_collator=data_collator )
Multi-modale modellen met Hugging Face

Alles samenbrengen

model = SpeechT5ForTextToSpeech.from_pretrained("microsoft/speecht5_tts")
processor = SpeechT5Processor.from_pretrained("microsoft/speecht5_tts")
vocoder = SpeechT5HifiGan.from_pretrained("microsoft/speecht5_hifigan")

Trainer:

trainer = Seq2SeqTrainer(args=training_args, model=model,
    train_dataset=dataset["train"], eval_dataset=dataset["test"],
                         tokenizer=processor)

Training starten: trainer.train()

Multi-modale modellen met Hugging Face

Het nieuwe model gebruiken

text = "se sono italiano posso cantare l'opera lirica"


speaker_embedding = torch.tensor(dataset[5]["speaker_embeddings"]).unsqueeze(0)
inputs = processor(text=text, return_tensors="pt")
speech = model.generate_speech(inputs["input_ids"], speaker_embedding, vocoder=vocoder)
make_spectrogram(speech)
Multi-modale modellen met Hugging Face

Het nieuwe model gebruiken

Italiaans spraakspectrogram

Multi-modale modellen met Hugging Face

Laten we oefenen!

Multi-modale modellen met Hugging Face

Preparing Video For Download...