机器学习算法

tidymodels学习实录-4(Tune model para

2022-05-14  本文已影响0人  灵活胖子的进步之路
library(tidymodels)  # for the tune package, along with the rest of tidymodels

# Helper packages
library(rpart.plot)  # for visualizing a decision tree
library(vip)         # for variable importance plots

data(cells, package = "modeldata")#载入数据

#划分测试集和训练集
set.seed(123)
cell_split <- initial_split(cells %>% select(-case), 
                            strata = class)#分层随机分组
cell_train <- training(cell_split)
cell_test  <- testing(cell_split)

#构建决策树模型,并确定需要调整的超参数
tune_spec <- 
  decision_tree(#模型
    cost_complexity = tune(),#超参数
    tree_depth = tune()#超参数
  ) %>% 
  set_engine("rpart") %>% #损失函数类型
  set_mode("classification")#模式为分类模型

tune_spec
待调参决策树模型
#以下利用网格搜素策略进行超参数的调整及确定
#首先确定网格数量
tree_grid <- grid_regular(cost_complexity(),
                          tree_depth(),
                          levels = 10)#两个超参数,每个10个值,共100对值
tree_grid   
网格搜索数据情况

#确定交叉验证数量(调参需要进行交叉验证)
set.seed(234)
cell_folds <- vfold_cv(cell_train)

#以下对模型进行测试
set.seed(345)
#确定workflow
tree_wf <- workflow() %>%
  add_model(tune_spec) %>%#决策树模型
  add_formula(class ~ .)#这里如果需要数据预处理,可以改为add_recipe()

#以下进行数据拟合分析
set.seed(345)

tree_res <- 
  tree_wf %>% #workflow
  tune_grid(#调参函数
    resamples = cell_folds,#10成交叉验证
    grid = tree_grid#网格数据
  )

#展示每次网格搜素的结果
tree_res %>% 
  collect_metrics()
计算结果
#展示分析结果
tree_res %>%
  collect_metrics() %>%#整理数据
  mutate(tree_depth = factor(tree_depth)) %>%#将树深度转换为因子
  ggplot(aes(cost_complexity, mean, color = tree_depth)) +#建立全局映射
  geom_line(size = 1.5, alpha = 0.1) +#建立线图几个对象并设定点的大小及透明度
  geom_point(size = 2) +#建立点图几个对象
  facet_wrap(~ .metric, scales = "free", nrow = 2) +#按照.metric进行分面
  scale_x_log10(labels = scales::label_number()) +#x轴进行尺度变换
  scale_color_viridis_d(option = "plasma", begin = .9, end = 0)#设定色板
网格搜索结果
tree_res %>%
  show_best("accuracy")
#提取并显示按照accuracy的最好结果
best_tree <- tree_res %>%
  select_best("accuracy")
best_tree
提取最终需要的参数结果
#拟合最终模型
final_wf <- 
  tree_wf %>% #模型训练前设定的workflow
  finalize_workflow(best_tree)#传入最终提取的参数

#利用建模组全部数据进行训练,获得的参数用到测试组的拟合结果
final_fit <- 
  final_wf %>%#拟合的最终模型
  last_fit(cell_split) #利用initial_splitf分隔建模组和测试组后的对象

#显示最终拟合在测试组的结果
final_fit %>%
  collect_metrics()

#展示在测试组上的ROC曲线
final_fit %>%
  collect_predictions() %>% 
  roc_curve(class, .pred_PS) %>% 
  autoplot()
测试组ROC曲线
#绘制决策树
final_tree %>%
  extract_fit_engine() %>%
  rpart.plot(roundint =F)

#显示前10重要性的变量
final_tree %>% 
  extract_fit_parsnip() %>% 
  vip()
上一篇下一篇

猜你喜欢

热点阅读