Modelevaluatie en visualisatie

End-to-End Machine Learning

Joshua Stapleton

Machine Learning Engineer

Accuracy

  • Juiste nauwkeurigheidsmetrics zijn cruciaal voor robuuste evaluatie
  • Resultaten zijn makkelijk te misinterpreteren of te verdoezelen

Standaardaccuracy:

  • Standaardaccuracy = aantal juiste antwoorden / aantal antwoorden
  • Standaardaccuracy kan onbruikbaar zijn

Voorbeeld:

# achieves ~99% accuracy for imbalanced dataset of 99 positive and 1 negative
for patient_datapoint in heart_disease_dataset:
    model.prediction(patient_datapoint) = 'positive'
End-to-End Machine Learning

Confusion matrix

True positives (TP)

  • Modelvoorspelling = werkelijke klasse = positief
  • Model voorspelde hartziekte, patiënt had hartziekte

False positives (FP)

  • Modelvoorspelling = positief, werkelijke klasse = negatief
  • Model voorspelde hartziekte, patiënt had geen hartziekte

False negatives (FN)

  • Modelvoorspelling = negatief, werkelijke klasse = positief
  • Model voorspelde geen hartziekte, patiënt had hartziekte

True negatives (TN)

  • Modelvoorspelling = werkelijke klasse = negatief
  • Model voorspelde geen hartziekte, patiënt had geen hartziekte
End-to-End Machine Learning

Balanced accuracy

  • Betere metric dan ruwe accuracy voor de meeste binaire classificaties
  • Geeft gewogen gemiddelde over beide klassen
  • Balanced accuracy = (TP + TN) / 2
from sklearn.metrics import balanced_accuracy_score

# Assume y_test is the true labels and y_pred are the predicted labels
y_pred = model.predict(X_test)
bal_accuracy = balanced_accuracy_score(y_test, y_pred)
print(f"Balanced Accuracy: {bal_accuracy:.2f}")
Balanced Accuracy: 0.85
End-to-End Machine Learning

Gebruik van de confusion matrix

Confusion matrix

End-to-End Machine Learning

Cross-validatie

Cross-validatie

  • Resamplingprocedure
  • Maakt resultaten robuust

 

k-fold cross-validatie

  • Parameter 'k' = aantal dataset-splits
  • Nieuwe train/test-split bij elke run

Diagram met cross-validatie

End-to-End Machine Learning

Gebruik van cross-validatie

  • Eenvoudige k-fold cross-validatie met sklearn
  • Modelonafhankelijke scoring

Gebruik:

from sklearn.model_selection import cross_val_score, KFold

# split the data into 10 equal parts
kfold = KFold(n_splits=5, shuffle=True, random_state=42)

# get the cross validation accuracy for a given model cv_results = cross_val_score(model, heart_disease_X, heart_disease_y, cv=kfold, scoring='balanced_accuracy')
End-to-End Machine Learning

Hyperparameter-tuning

Hyperparameter:

  • Globale modelparameter (wijzigt niet tijdens training)
  • Stel af om prestatie te verbeteren
# Hyperparameters to test
C_values = [0.001, 0.01, 0.1, 1, 10, 100, 1000]

# Manually iterate over the hyperparameters
for C in C_values:
    model = LogisticRegression(max_iter=200, C=C)
    model.fit(X_train, y_train)
    accuracy = cross_val_score(model, X, y, cv=kfold, scoring='balanced_accuracy')
    print(f"C = {C}: Bal Acc: {accuracy.mean():.4f} (+/- {accuracy.std():.4f})")
End-to-End Machine Learning

Voorbeeld hyperparameter-tuning

Voorbeeldoutput van hyperparameter-tuning:

 

C = 0.001: Bal Acc: 0.6200 (+/- 0.0215)
C = 0.01: Bal Acc: 0.7325 (+/- 0.0234)
C = 0.1: Bal Acc: 0.7923 (+/- 0.0202)
C = 1: Bal Acc: 0.8050 (+/- 0.0191)
C = 10: Bal Acc: 0.8034 (+/- 0.0185)
C = 100: Bal Acc: 0.8021 (+/- 0.0187)
C = 1000: Bal Acc: 0.8017 (+/- 0.0188)
End-to-End Machine Learning

Laten we oefenen!

End-to-End Machine Learning

Preparing Video For Download...