Tokenization en lemmatization

Feature Engineering voor NLP in Python

Rounak Banik

Data Scientist

Tekstbronnen

  • Nieuwsartikelen
  • Tweets
  • Reacties
Feature Engineering voor NLP in Python

Tekst machinevriendelijk maken

  • Dogs, dog
  • reduction, REDUCING, Reduce
  • don't, do not
  • won't, will not
Feature Engineering voor NLP in Python

Tekstvoorbewerkingstechnieken

  • Woorden naar lowercase omzetten
  • Voor- en eindspaties verwijderen
  • Interpunctie verwijderen
  • Stopwoorden verwijderen
  • Samentrekkingen uitschrijven
  • Speciale tekens verwijderen (cijfers, emoji’s, enz.)
Feature Engineering voor NLP in Python

Tokenization

"I have a dog. His name is Hachi."

Tokens:

["I", "have", "a", "dog", ".", "His", "name", "is", "Hachi", "."]
"Don't do this."

Tokens:

["Do", "n't", "do", "this", "."]
Feature Engineering voor NLP in Python

Tokenization met spaCy

import spacy

# Load the en_core_web_sm model nlp = spacy.load('en_core_web_sm')
# Initiliaze string string = "Hello! I don't know what I'm doing here."
# Create a Doc object doc = nlp(string)
# Generate list of tokens tokens = [token.text for token in doc] print(tokens)
['Hello','!','I','do',"n't",'know','what','I',"'m",'doing','here','.']
Feature Engineering voor NLP in Python

Lemmatization

  • Zet woorden om naar de basisvorm
    • reducing, reduces, reduced, reductionreduce
    • am, are, isbe
    • n'tnot
    • 'vehave
Feature Engineering voor NLP in Python

Lemmatization met spaCy

import spacy

# Load the en_core_web_sm model
nlp = spacy.load('en_core_web_sm')
# Initiliaze string
string = "Hello! I don't know what I'm doing here."
# Create a Doc object
doc = nlp(string)

# Generate list of lemmas lemmas = [token.lemma_ for token in doc] print(lemmas)
['hello','!','-PRON-','do','not','know','what','-PRON','be','do','here', '.']
Feature Engineering voor NLP in Python

Laten we oefenen!

Feature Engineering voor NLP in Python

Preparing Video For Download...