Transfer learning voor taalmodellen

Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

David Cecchini

Data Scientist

Het idee achter transfer learning

Transfer learning:

  • Start met betere dan willekeurige begingewichten
  • Gebruik modellen getraind op zeer grote datasets
  • Open-source datascience-modellen
Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

Beschikbare architecturen

Basisvoorbeeld: I really loved this movie

  • Word2Vec
    • Continuous Bag of Words (CBOW) X = [I, really, this, movie], y = loved
    • Skip-gram X = loved, y = [I, really, this, movie]
  • FastText X = [I, rea, eal, all, lly, really, ...], y = loved
    • Gebruikt woorden en n-grammen van tekens
  • ELMo X = [I, really, loved, this], y = movie
    • Gebruikt woorden, embeddings per context
    • Gebruikt diepe bidirectionele taalmodellen (biLM)
  • Word2Vec en FastText zijn beschikbaar in pakket gensim en ELMo in tensorflow_hub
Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

Voorbeeld met Word2Vec

from gensim.models import word2vec

# Train het model w2v_model = word2vec.Word2Vec(tokenized_corpus, size=embedding_dim, window=neighbor_words_num, iter=100)
# Top 3 vergelijkbare woorden voor "captain" ophalen w2v_model.wv.most_similar(["captain"], topn=3)
[('sweatpants', 0.7249663472175598),
('kirk', 0.7083336114883423),
('larry', 0.6495886445045471)]
Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

Voorbeeld met FastText

from gensim.models import fasttext

# Instantieer het model ft_model = fasttext.FastText(size=embedding_dim, window=neighbor_words_num)
# Bouw de woordenschat ft_model.build_vocab(sentences=tokenized_corpus)
# Train het model ft_model.train(sentences=tokenized_corpus, total_examples=len(tokenized_corpus), epochs=100)
Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

Laten we oefenen!

Recurrent Neural Networks (RNN's) voor taalmodellen met Keras

Preparing Video For Download...