R ile Ağaç Tabanlı Modellerle Machine Learning
Sandro Raabe
Data Scientist
parsnip karar ağaçlarındaki hiperparametreler:
min_n: Bir düğümü bölmek için gereken en az örnektree_depth: izin verilen en büyük derinlikcost_complexity: ağaç karmaşıklığı cezasıparsnip tarafından belirlenen varsayılanlar:
decision_tree(min_n = 20, tree_depth = 30, cost_complexity = 0.01)
Hiperparametre ayarlamanın amacı, en iyi hiperparametre kümesini bulmaktır.




spec_untuned <- decision_tree(min_n = tune(), tree_depth = tune()) %>% set_engine("rpart") %>% set_mode("classification")
Decision Tree Model Specification (classification)Main Arguments: tree_depth = tune() min_n = tune()
tune() ayarlanacak parametreleri işaretlertree_grid <- grid_regular(parameters(spec_untuned),levels = 3 )
# A tibble: 9 x 2
min_n tree_depth
1 2 1
2 21 1
3 40 1
4 2 8
5 21 8
6 40 8
7 2 15
8 21 15
9 40 15
parameters()levels: her hiperparametre için ızgara nokta sayısı
Kullanım ve argümanlar:
metric_set() içine sarılmış metrik listesitune_results <- tune_grid(spec_untuned,outcome ~ .,resamples = my_folds,grid = tree_grid,metrics = metric_set(accuracy))
autoplot(tune_results)

# En iyi parametreleri seçin final_params <- select_best(tune_results)final_params
# A tibble: 1 x 3
min_n tree_depth .config
<int> <int> <chr>
1 2 8 Model4
# Tanıma ekleyin best_spec <- finalize_model(spec_untuned, final_params)best_spec
Decision Tree Model Specification
(classification)
Main Arguments:
tree_depth = 8
min_n = 2
Computational engine: rpart
R ile Ağaç Tabanlı Modellerle Machine Learning