Hyperparameter Tuning in Python
Alex Scriven
Data Scientist
Je eerdere werk:
neighbors_list = [3,5,10,20,50,75]
accuracy_list = []
for test_number in neighbors_list:
model = KNeighborsClassifier(n_neighbors=test_number)
predictions = model.fit(X_train, y_train).predict(X_test)
accuracy = accuracy_score(y_test, predictions)
accuracy_list.append(accuracy)
Dat hebben we samengevoegd in een dataframe voor analyse.
Wat als we waarden van 2 hyperparameters testen?
Met een GBM-algoritme:
learn_rate [0.001, 0.01, 0.05]max_depth [4,6,8,10]We kunnen een (geneste) for-lus gebruiken!
Eerst een modelmaakfunctie:
def gbm_grid_search(learn_rate, max_depth): model = GradientBoostingClassifier( learning_rate=learn_rate, max_depth=max_depth)predictions = model.fit(X_train, y_train).predict(X_test)return([learn_rate, max_depth, accuracy_score(y_test, predictions)])
Nu loopen we door de hyperparameterlijsten en roepen we onze functie aan:
results_list = []
for learn_rate in learn_rate_list:
for max_depth in max_depth_list:
results_list.append(gbm_grid_search(learn_rate,max_depth))
We kunnen deze resultaten ook in een DataFrame zetten en printen:
results_df = pd.DataFrame(results_list, columns=['learning_rate', 'max_depth', 'accuracy'])
print(results_df)

Er kwamen veel meer modellen bij door extra hyperparameters en waarden toe te voegen.
Hoe zit het met cross-validatie?
Wat als we meer hyperparameters toevoegen?
We kunnen onze lus nesten!
# Pas de lijst met te testen waarden aan
learn_rate_list = [0.001, 0.01, 0.1, 0.2, 0.3, 0.4, 0.5]
max_depth_list = [4,6,8, 10, 12, 15, 20, 25, 30]
subsample_list = [0.4,0.6, 0.7, 0.8, 0.9]
max_features_list = ['auto', 'sqrt']
Pas onze functie aan:
def gbm_grid_search(learn_rate, max_depth,subsample,max_features):
model = GradientBoostingClassifier(
learning_rate=learn_rate,
max_depth=max_depth,
subsample=subsample,
max_features=max_features)
predictions = model.fit(X_train, y_train).predict(X_test)
return([learn_rate, max_depth, accuracy_score(y_test, predictions)])
De for-lus aanpassen (nesten):
for learn_rate in learn_rate_list:
for max_depth in max_depth_list:
for subsample in subsample_list:
for max_features in max_features_list:
results_list.append(gbm_grid_search(learn_rate,max_depth,
subsample,max_features))
results_df = pd.DataFrame(results_list, columns=['learning_rate',
'max_depth', 'subsample', 'max_features','accuracy'])
print(results_df)
Hoeveel modellen nu?
We kunnen niet eindeloos nesten!
En wat als we willen:
Laten we een grid maken:

Werk cel voor cel door het grid:

(4,0.001) komt overeen met deze estimator:
GradientBoostingClassifier(max_depth=4, learning_rate=0.001)
Enkele voordelen van deze aanpak:
Voordelen:
Enkele nadelen van deze aanpak:
We behandelen later ‘geïnformeerde’ methoden!
Hyperparameter Tuning in Python