Hyperparameter Tuning in Python
Alex Scriven
Data Scientist
Bayes-regel:
Een statistische methode om met nieuwe bewijzen onze overtuigingen over een uitkomst iteratief bij te werken
De Bayes-regel heeft de vorm:
$$ P(A \mid B) = \frac{P(B \mid A) \, P(A)}{P(B)} $$
LHS = de kans op A, gegeven dat B is opgetreden. B is nieuw bewijs.
RHS is hoe we dit berekenen.
$$ P(A \mid B) = \frac{P(B \mid A) \, P(A)}{P(B)} $$
Dit kan verwarrend zijn, maar we gebruiken een klassiek medisch voorbeeld.
Een medisch voorbeeld:
Wat is de kans dat een willekeurig persoon de ziekte heeft?
$$ P(D) = 0.05 $$
Dit is onze prior; we hebben nog geen bewijs.
Wat is de kans dat een gepredisponeerd persoon de ziekte heeft?
$$ P(D \mid Pre) = \frac{P(Pre \mid D) \, P(D)}{P(pre)} $$
$$ P(D \mid Pre) = \frac{0.2 \, * 0.05}{0.1} = 0.1 $$
We passen deze logica toe op hyperparametertuning:
Bayesiaanse hyperparametertuning is nieuw maar populair bij grotere, complexere tuningtaken, omdat het daar goed optimale combinaties vindt
Introductie van het pakket Hyperopt.
Voor bayesiaanse hyperparametertuning moeten we:
Veel opties om de grid te zetten:
Hyperopt gebruikt geen puntwaarden op de grid; elk punt geeft kansen voor elke hyperparametervalue.
We gebruiken een eenvoudige uniforme verdeling; er zijn er meer in de documentatie.
Stel de grid in:
space = {
'max_depth': hp.quniform('max_depth', 2, 10, 2),
'min_samples_leaf': hp.quniform('min_samples_leaf', 2, 8, 2),
'learning_rate': hp.uniform('learning_rate', 0.01, 1, 55),
}
De doelfunctie voert het algoritme uit:
def objective(params): params = {'max_depth': int(params['max_depth']), 'min_samples_leaf': int(params['min_samples_leaf']), 'learning_rate': params['learning_rate']} gbm_clf = GradientBoostingClassifier(n_estimators=500, **params)best_score = cross_val_score(gbm_clf, X_train, y_train, scoring='accuracy', cv=10, n_jobs=4).mean() loss = 1 - best_scorewrite_results(best_score, params, iteration) return loss
Voer het algoritme uit:
best_result = fmin(
fn=objective,
space=space,
max_evals=500,
rstate=np.random.default_rng(42),
algo=tpe.suggest)
Hyperparameter Tuning in Python