Maschinelles Lernen mit H2O

Hyperparameter-Tuning in R

Dr. Shirin Elsinghorst

Senior Data Scientist

Was ist H2O?

library(h2o)
h2o.init()
H2O läuft noch nicht, starte jetzt...
java version "1.8.0_351"
Java(TM) SE Runtime Environment (build 1.8.0_351-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.351-b10, mixed mode)
Starte H2O JVM und verbinde: ... Verbindung erfolgreich!
R ist mit dem H2O-Cluster verbunden: 
    H2O-Cluster-Laufzeit:      1 Sekunden 620 Millisekunden 
    H2O-Cluster-Zeitzone:      UTC 
    H2O-Datenparsing-Zeitzone: UTC 
    H2O-Cluster-Version:       3.38.0.1 
    H2O-Cluster-Versionsalter: 2 Monate und 25 Tage  
    H2O-Cluster-Name:          H2O_started_from_R_repl_chk886 
    H2O-Cluster Knoten gesamt: 1 
    H2O-Cluster Speicher:      0.98 GB 
    H2O-Cluster Kerne gesamt:  2 
    H2O-Cluster erlaubte Kerne: 2 
    H2O-Cluster gesund:        TRUE 
    H2O-Verbindungs-IP:        localhost 
    H2O-Verbindungsport:       54321 
    H2O-Verbindungsproxy:      NA 
    H2O Interne Sicherheit:    FALSE 
    R-Version:                 R version 4.2.1 (2022-06-23)
Hyperparameter-Tuning in R

Neuer Datensatz: Seeds-Daten

glimpse(seeds_data)
Observations: 150
Variables: 8
$ area          <dbl> 15.26, 14.88, 14.29, 13.84 ...
$ perimeter     <dbl> 14.84, 14.57, 14.09, 13.94 ...
$ compactness   <dbl> 0.8710, 0.8811, 0.9050 ...
$ kernel_length <dbl> 5.763, 5.554, 5.291, 5.324 ...
$ kernel_width  <dbl> 3.312, 3.333, 3.337, 3.379 ...
$ asymmetry     <dbl> 2.2210, 1.0180, 2.6990 ...
$ kernel_groove <dbl> 5.220, 4.956, 4.825, 4.805 ...
$ seed_type     <int> 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
seeds_data %>%
  count(seed_type)
# A tibble: 3 x 2
  seed_type     n
      <int> <int>
1         1    50
2         2    50
3         3    50
Hyperparameter-Tuning in R

Daten für H2O-Modellierung vorbereiten

  • Daten als H2O-Frame

    seeds_data_hf <- as.h2o(seeds_data)
    
  • Features und Ziel definieren

    y <- "seed_type"
    x <- setdiff(colnames(seeds_data_hf), y)
    
  • Für Klassifikation muss das Ziel ein Faktor sein

    seeds_data_hf[, y] <- as.factor(seeds_data_hf[, y])
    
Hyperparameter-Tuning in R

Trainings-, Validierungs- und Testsets

sframe <- h2o.splitFrame(data = seeds_data_hf, 
                         ratios = c(0.7, 0.15),
                         seed = 42)
train <- sframe[[1]]
valid <- sframe[[2]]
test <- sframe[[3]]
summary(train$seed_type, exact_quantiles = TRUE)
seed_type
 1:36     
 2:36     
 3:35
summary(test$seed_type, exact_quantiles = TRUE)
 seed_type
 1:8      
 2:8      
 3:5
Hyperparameter-Tuning in R

Modelltraining mit H2O

  • Gradient Boosted Models mit h2o.gbm() & h2o.xgboost()
  • Generalisierte lineare Modelle mit h2o.glm()
  • Random-Forest-Modelle mit h2o.randomForest()
  • Neuronale Netze mit h2o.deeplearning()
Hyperparameter-Tuning in R

Modelltraining mit H2O

gbm_model <- h2o.gbm(x = x, y = y, 
                     training_frame = train, 
                     validation_frame = valid)
Model Details:
==============

H2OMultinomialModel: gbm
Model ID:  GBM_model_R_1540736041817_1 
Model Summary: 
number_of_trees number_of_internal_trees model_size_in_bytes min_depth 
             50                      150               24877         2 
max_depth mean_depth min_leaves max_leaves mean_leaves
        5    4.72000          3         10     8.26667
Hyperparameter-Tuning in R
  • Modellleistung
perf <- h2o.performance(gbm_model, test)

h2o.confusionMatrix(perf)
Confusion Matrix: Row labels: Actual class; Column labels: Predicted class
       1 2 3  Error     Rate
1      7 0 1 0.1250 =  1 / 8
2      0 8 0 0.0000 =  0 / 8
3      0 0 5 0.0000 =  0 / 5
Totals 7 8 6 0.0476 = 1 / 21
h2o.logloss(perf)
0.2351779
  • Neue Daten vorhersagen
h2o.predict(gbm_model, test)
Hyperparameter-Tuning in R

Lass uns üben!

Hyperparameter-Tuning in R

Preparing Video For Download...