Ensemble di classificatori per outlier

Rilevamento delle anomalie in Python

Bekhruz (Bex) Tuychiev

Kaggle Master, Data Science Content Creator

Di nuovo su Airbnb

outliers = airbnb_df[iforest.labels_ == 1]

outlier_probs = iforest.predict_proba(outliers)
outlier_probs[:10]
array([[0.51999538, 0.48000462],
       [0.61789522, 0.38210478],
       [0.61802032, 0.38197968],
       [0.35184434, 0.64815566],
       [0.57533286, 0.42466714],
       [0.59038933, 0.40961067],
       [0.57677613, 0.42322387],
       [0.54158826, 0.45841174],
       [0.49118093, 0.50881907],
       [0.21387357, 0.78612643]])
Rilevamento delle anomalie in Python

Best practice per la soglia di probabilità

Soglia:

  • 75% in casi a basso rischio
  • 90% in casi ad alto costo come:

    • medicina
    • cybersicurezza
    • dati limitati
Rilevamento delle anomalie in Python

Cos'è un ensemble?

  • Combinazione di due o più classificatori
  • Predizioni più stabili
Rilevamento delle anomalie in Python

Guarda i dati

google.head()
              Open    High     Low   Close    Volume  day_of_week  month  day
Date                                                                         
2006-01-03  211.47  218.05  209.32  217.83  13137450            1      1    3
2006-01-04  222.17  224.70  220.09  222.84  15292353            2      1    4
2006-01-05  223.22  226.00  220.97  225.85  10815661            3      1    5
2006-01-06  228.66  235.49  226.85  233.06  17759521            4      1    6
2006-01-09  233.44  236.94  230.70  233.68  12795837            0      1    9
Rilevamento delle anomalie in Python

Scalare le variabili numeriche

from sklearn.preprocessing import QuantileTransformer


# Definisci le colonne da scalare to_scale = ['Open', 'High', 'Low', 'Close', 'Volume']
# Inizializza il trasformatore qt = QuantileTransformer(output_distribution="normal") # Scala e salva le colonne google.loc[:, to_scale] = qt.fit_transform(google[to_scale])
Rilevamento delle anomalie in Python

Creare array

# Crea un elenco di stimatori
estimators = [KNN(n_neighbors=20), LOF(n_neighbors=20), IForest()]

# Crea un array vuoto shape = (len(google), len(estimators)) probability_scores = np.empty(shape=shape)
Rilevamento delle anomalie in Python

Dentro il ciclo

estimators = [KNN(n_neighbors=20), LOF(n_neighbors=20), IForest()]

shape = (len(google), len(estimators))
probability_scores = np.empty(shape=shape)

# Ciclo e fit for index, est in enumerate(estimators): est.fit(google)
# Crea le probabilità probs = est.predict_proba(google)
# Salva le probabilità probability_scores[:, index] = probs[:, 1]
Rilevamento delle anomalie in Python

Aggregare - media

mean_scores = np.mean(probability_scores, axis=1)

mean_scores
array([0.20699869, 0.21455413, 0.17166271, ..., 0.31255075, 0.33553513,
       0.32217186])
Rilevamento delle anomalie in Python

Aggregare - mediana

median_scores = np.mean(probability_scores, axis=1)

median_scores
array([0.20699869, 0.21455413, 0.17166271, ..., 0.31255075, 0.33553513,
       0.32217186])
Rilevamento delle anomalie in Python

Filtro per probabilità

# Crea una maschera con soglia 75%
is_outlier = median_scores > 0.75

# Filtra gli outlier outliers = google[is_outlier]
len(outliers)
3
Rilevamento delle anomalie in Python

Riepilogo dei passaggi

# Crea un elenco di stimatori
estimators = [KNN(n_neighbors=20), LOF(n_neighbors=20), IForest()]
probability_scores = np.empty(shape=(len(google), len(estimators)))


for index, est in enumerate(estimators): # Fitta e genera probabilità est.fit(google) probs = est.predict_proba(google) # Salva le probabilità probability_scores[:, index] = probs[:, 1]
Rilevamento delle anomalie in Python

Riepilogo dei passaggi

# Media dei punteggi
mean_scores = np.mean(probability_scores, axis=1)

# Filtro con soglia 75%
outliers = google[mean_scores > 0.75]

print(len(outliers))
3
Rilevamento delle anomalie in Python

Alytiamo!

Rilevamento delle anomalie in Python

Preparing Video For Download...