Het NMT‑model trainen

Machine Translation met Keras

Thushan Ganegedara

Data Scientist and Author

Het model herbekijken

  • Encoder-GRU
    • Neemt Engelse woorden op
    • Geeft een contextvector terug
  • Decoder-GRU
    • Gebruikt de contextvector
    • Geeft een reeks GRU-uitgangen
  • Decoder-voorspellingslaag
    • Gebruikt de GRU-uitgangen
    • Geeft voorspellingskansen voor Franse woorden

Machine Translation met Keras

Parameters optimaliseren

  • GRU- en Dense-lagen hebben parameters
  • Vaak genoteerd als W (gewichten) en b (bias) (geïnitieerd met willekeurige waarden)
  • Ze zetten invoer om naar een bruikbare uitvoer
  • Ze worden aangepast om een verlies te minimaliseren met een optimizer
    • Verlies: verschil tussen:
      • De voorspellingen (Franse woorden die het model genereert)
      • De echte outputs (de werkelijke Franse woorden)
  • Dit geef je op bij het compileren van het model
nmt.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['acc'])
Machine Translation met Keras

Het model trainen

  • Trainingsiteraties
    for ei in range(n_epochs): # Eén keer door de dataset
      for i in range(0,data_size,bsize): # Eén batch verwerken
    
  • Een trainingsbatch ophalen
      en_x = sents2seqs('source', en_text[i:i+bsize], onehot=True, reverse=True)
      de_y = sents2seqs('target', en_text[i:i+bsize], onehot=True)
    
  • Trainen op één batch
      nmt.train_on_batch(en_x, de_y)
    
  • Het model evalueren
      res = nmt.evaluate(en_x, de_y, batch_size=bsize, verbose=0)
    
Machine Translation met Keras

Het model trainen

  • Trainingsverlies en nauwkeurigheid ophalen
      res = nmt.evaluate(en_x, de_y, batch_size=bsize, verbose=0)
      print("Epoch {} => Train Loss:{}, Train Acc: {}".format(
        ei+1,res[0], res[1]*100.0))
    
Epoch 1 => Train Loss:4.8036723136901855, Train Acc: 5.215999856591225
...
Epoch 1 => Train Loss:4.718592643737793, Train Acc: 47.0880001783371
...
Epoch 5 => Train Loss:2.8161656856536865, Train Acc: 56.40000104904175
Epoch 5 => Train Loss:2.527724266052246, Train Acc: 54.368001222610474
Epoch 5 => Train Loss:2.2689621448516846, Train Acc: 54.57599759101868
Epoch 5 => Train Loss:1.9934935569763184, Train Acc: 56.51199817657471
Epoch 5 => Train Loss:1.7581449747085571, Train Acc: 55.184000730514526
Epoch 5 => Train Loss:1.5613118410110474, Train Acc: 55.11999726295471
Machine Translation met Keras

Overfitting vermijden

  • Splits de dataset in twee delen
    • Trainingsset – hierop train je het model
    • Validatieset – hiermee volg je de nauwkeurigheid
  • Stop met trainen zodra de validatienauwkeurigheid niet meer stijgt.

Punt van overfitting

Machine Translation met Keras

De dataset splitsen

  • Definieer de grootte van train- en validatieset

    train_size, valid_size = 800, 200
    
  • Shuffle de data-indices willekeurig

    inds = np.arange(len(en_text))
    np.random.shuffle(inds)
    
  • Pak de train- en validatie-indices

    train_inds = inds[:train_size]
    valid_inds = inds[train_size:train_size+valid_size]
    
Machine Translation met Keras

De dataset splitsen

  • Splits de dataset door te scheiden:
    • Data met train-indices naar de trainingsset
    • Data met validatie-indices naar de validatieset
tr_en = [en_text[ti] for ti in train_inds]
tr_fr = [fr_text[ti] for ti in train_inds]

v_en = [en_text[ti] for ti in valid_inds]
v_fr = [fr_text[ti] for ti in valid_inds]
Machine Translation met Keras

Trainen met validatie

n_epochs, bsize = 5, 250
for ei in range(n_epochs):

for i in range(0,train_size,bsize): en_x = sents2seqs('source', tr_en[i:i+bsize], onehot=True, pad_type='pre') de_y = sents2seqs('target', tr_fr[i:i+bsize], onehot=True) nmt.train_on_batch(en_x, de_y)
v_en_x = sents2seqs('source', v_en, onehot=True, pad_type='pre') v_de_y = sents2seqs('target', v_fr, onehot=True)
res = nmt.evaluate(v_en_x, v_de_y, batch_size=valid_size, verbose=0) print("Epoch: {} => Loss:{}, Val Acc: {}".format(ei+1,res[0], res[1]*100.0))
Epoch 1 => Train Loss:4.8036723136901855, Train Acc: 5.215999856591225
Machine Translation met Keras

Laten we oefenen!

Machine Translation met Keras

Preparing Video For Download...