Stochastic Gradient Boosting (SGB)

Maschinelles Lernen mit baumbasierten Modellen in Python

Elie Kawerk

Data Scientist

Gradient Boosting: Nachteile

  • GB beinhaltet ein sehr aufwendiges Suchverfahren.

  • Jeder CART ist darauf trainiert, die besten Split-Punkte und Merkmale zu finden.

  • Kann dazu führen, dass CARTs die gleichen Split-Punkte und vielleicht auch die gleichen Funktionen nutzen.

Maschinelles Lernen mit baumbasierten Modellen in Python

Stochastic Gradient Boosting

  • Jeder Baum wird mit einer zufälligen Teilmenge von Zeilen der Trainingsdaten trainiert.

  • Die Datenpunkt-Stichproben (40 % – 80 % der Trainingsdaten) werden ohne Ersatz gezogen.

  • Die Merkmals-Stichproben werden bei der Auswahl der Split-Punkte ohne Ersatz gezogen.

  • Ergebnis: noch mehr Vielfalt im Ensemble

  • Effekt: noch mehr Varianz bei den Ensemble-Bäumen

Maschinelles Lernen mit baumbasierten Modellen in Python

Stochastic Gradient Boosting: Training

SGB

Maschinelles Lernen mit baumbasierten Modellen in Python

Stochastic Gradient Boosting in sklearn (Auto-Datensatz)

# Import models and utility functions
from sklearn.ensemble import GradientBoostingRegressor
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error as MSE

# Set seed for reproducibility
SEED = 1

# Split dataset into 70% train and 30% test
X_train, X_test, y_train, y_test = train_test_split(X,y, 
                                                    test_size=0.3, 
                                                    random_state=SEED)
Maschinelles Lernen mit baumbasierten Modellen in Python

Stochastic Gradient Boosting in sklearn (Auto-Datensatz)

# Instantiate a stochastic GradientBoostingRegressor 'sgbt'
sgbt = GradientBoostingRegressor(max_depth=1, 
                                 subsample=0.8,
                                 max_features=0.2,
                                 n_estimators=300,             
                                 random_state=SEED)

# Fit 'sgbt' to the training set sgbt.fit(X_train, y_train) # Predict the test set labels y_pred = sgbt.predict(X_test)
Maschinelles Lernen mit baumbasierten Modellen in Python

Stochastic Gradient Boosting in sklearn (Auto-Datensatz)

# Evaluate test set RMSE 'rmse_test'
rmse_test = MSE(y_test, y_pred)**(1/2)

# Print 'rmse_test'
print('Test set RMSE: {:.2f}'.format(rmse_test))
Test set RMSE: 3.95
Maschinelles Lernen mit baumbasierten Modellen in Python

Lass uns üben!

Maschinelles Lernen mit baumbasierten Modellen in Python

Preparing Video For Download...