Iperparametri di KNN

Rilevamento delle anomalie in Python

Bekhruz (Bex) Tuychiev

Kaggle Master, Data Science Content Creator

Modifica evaluate_outlier_classifier

def evaluate_outlier_classifier(model, data, threshold=.75):
    model.fit(data)

    probs = model.predict_proba(data)
    inliers = data[probs[:, 1] <= threshold]

    return inliers
Rilevamento delle anomalie in Python

Modifica evaluate_regressor

def evaluate_regressor(inliers):
    X, y = inliers.drop("weightkg", axis=1), inliers[['weightkg']]
    X_train, X_test, y_train, y_test = train_test_split(
      X, y, random_state=10, train_size=0.8)

    lr = LinearRegression()
    lr.fit(X_train, y_train)

    preds = lr.predict(X_test)
    rmse = root_mean_squared_error(y_test, preds)

    return round(rmse, 3)
Rilevamento delle anomalie in Python

Tuning del numero di vicini

n_neighbors = [5, 10, 15, 20]
scores = dict()


for k in n_neighbors: # Inizializza un KNN knn = KNN(n_neighbors=k) # Ottieni gli inlier con KNN inliers = evaluate_outlier_classifier(knn, males_transformed, .55) # Calcola e salva l’RMSE scores[k] = evaluate_regressor(inliers)
Rilevamento delle anomalie in Python

Analisi del risultato

print(scores)
{5: 19.463, 10: 17.965, 15: 18.817, 20: 20.597}
Rilevamento delle anomalie in Python

Metriche di distanza

  • Supportate oltre 40 metriche
knn = KNN(metric='euclidean')

Un grafico di un dataset di esempio con 8 istanze, con A come outlier e frecce tra A e i suoi 4 vicini più prossimi.

Rilevamento delle anomalie in Python

Distanza Manhattan

A = np.array([9, 1, 6, ...])
B = np.array([25, 44, 85, ...])


diffs = np.abs(B - A)
manhattan_dist_AB = np.sum(diffs) manhattan_dist_AB
573

La formula per calcolare la distanza Manhattan e un’illustrazione del processo.

Rilevamento delle anomalie in Python

Distanza Manhattan

  • Funziona bene con dati ad alta dimensionalità
  • Restituisce valori maggiori dell’euclidea
  • Ottima con feature categoriche

La formula per calcolare la distanza Manhattan e un’illustrazione del processo.

Rilevamento delle anomalie in Python

Distanza di Minkowski

# Distanza euclidea
knn = KNN(metric="minkowski", p=2)
# Distanza Manhattan
knn = KNN(metric="minkowski", p=1)

La formula per calcolare la distanza di Minkowski e un’illustrazione del processo.

Rilevamento delle anomalie in Python

Aggregazione delle distanze

knn_largest = KNN(n_neighbors=10, method="largest")


knn_mean = KNN(n_neighbors=10, method="mean") knn_median = KNN(n_neighbors=10, method="median")
Rilevamento delle anomalie in Python

Tuning di distanza e metodo

ps = [1, 2, 3, 4]
methods = ["largest", "mean", "median"]
scores = dict()


for p, method in product(ps, methods): # Inizializza un KNN knn = KNN(n_neighbors=10, method=method, p=p, n_jobs=-1) # Trova gli inlier con l’attuale KNN inliers = evaluate_outlier_classifier(knn, males_transformed, .55) # Calcola e salva l’RMSE in scores scores[(p, method)] = evaluate_regressor(inliers)
Rilevamento delle anomalie in Python

Analisi del risultato

print(scores)
{(1, 'largest'): 23.188,
 (1, 'mean'): 23.188,
 (1, 'median'): 23.188,
 (2, 'largest'): 17.965,
 (2, 'mean'): 19.463,
 (2, 'median'): 19.463,
 (3, 'largest'): 17.965,
 (3, 'mean'): 19.463,
 (3, 'median'): 19.463, ...
}
Rilevamento delle anomalie in Python

Passiamo alla pratica !

Rilevamento delle anomalie in Python

Preparing Video For Download...