遥感

CART ( Classification and regres

2020-05-13  本文已影响0人  单酒窝小可爱

分类与回归树(CART)方法是一种机器学习方法,具有很好的数据拟合性、较高的R2值和较低的RMSE,是一种很好的探索性方法,其目的是确定分类与预测规则。CART以其高精度和高性能在不同的工程领域得到了广泛的应用。具体介绍就不在赘述,可以参考百度(有很多),这里直接上代码。本实例以我的研究为例。主要工具是采用R语言包进行结果的输出。

主要步骤:

1 首先主要采用的是R语言中的Cubist包,输入代码前要先进行安装,install.packet('Cubist'),安装成功后可直接运行。

2 数据准备:

这一步相对比较简单,将因变量与自变量按列排列即可,该实例中自变量既可以是数值形式也可以是文本形式,如下数据格式:


image.png

3 复制代码,注意修改自己的路径。下述代码将原始数据分为test和train两部分,结合自身情况可以进一步输出。

library(Cubist)
library(caret)
setwd("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\")
data = read.csv("I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\NPP_yearly.csv",header = T)

set.seed(1) # 设置种子,保证生成的随机数不发生变化
inTrain <- sample(1:nrow(data), floor(.8*nrow(data)))

#===========================================自变量
# 训练数据集(前13列)
train_pred <- data[ inTrain, 6:11]
# 随机样本剩余的数据(前13列)
test_pred  <- data[-inTrain, 6:11]
#==========================================因变量(目标变量)
train_resp <- data$NPP[ inTrain]
test_resp  <- data$NPP[-inTrain]

#======这一步是为了确定参数,选择怎杨的committees和neighbors值模拟的RMSE可以达到最小
grid <- expand.grid(committees = c(1,10,20,50,100),
                    neighbors = c(0,1,3,5,7,9))
set.seed(1)
boston_tuned <- train(
  x = train_pred,
  y = train_resp,
  method = "cubist",
  tuneGrid = grid,
  trControl = trainControl(method = "cv")
  #trControl = trainControl(method = "repeatedcv",number = 10,repeats = 10) 
  )
#------------------trainControl()--------------------------------------
# method表示进行重采样方法 cv:cross validation,number表示 k折交叉验证,repeats表示重复交叉验证的次数
boston_tuned
ggplot(boston_tuned) +
  theme(legend.position = "top")

# ================cubistControl()======================
# unbiased:无偏估计,rules:表示规则的最大上限,
# extrapolation:表示最大值最小值外推的上限百分比,比如范围0-100,那训练外推到100+10%,0-10%
# sample:表示80%的样本进行训练,剩下的20%测试,
# seed:随机种子,sample.int(x,size): 表示在1:x之间产生size个随机数,size为整数
# label:表示目标变量

# cubistControl(unbiased = FALSE, rules = 100, extrapolation = 5)

# =================cubist()===========================
# X :表示自变量组成的子集,Y:表示目标变量,
# committees:The committee option can be used to control number of model trees,
# 可以根据上述boston_tuned进行最优选择,control = cubistControl() :训练规则
model_tree = cubist(x = train_pred, y = train_resp) 

# ==============summary()=============================
# summary() 表示生产的规则
rule = summary(model_tree)
# sink("test.log", type=c("output", "message"))  # 将控制台输出内容保存,即将生成的规则保存用于后续应用

# ===============predict()============================
# predict() 表示对验证数据的预测,用于检验模型的精度
# models 为上述的cubist结果,validation_data[,2:5]为验证数据集,
# neighbors:表示使用多少实例来纠正基于规则的预测? 可以根据上述boston_tuned进行最优选择
model_tree_pred <- predict(model_tree, test_pred)
yanzheng = data.frame(test_resp,model_tree_pred)
sqrt = sqrt(mean((model_tree_pred - test_resp)^2))
cor = cor(model_tree_pred, test_resp)^2
print(cor)
write.csv(yanzheng,"I:\\01-data\\Global\\flux\\FLUXNET2015\\04Result\\RV3_年值03_合并所有年份\\validation_yearly_test.csv",quote =F,row.names = F)

#==============dotplot()==============================
# 输出的是 每一个回归方程的系数以及截距(常数项)在每一个规则上的值
# dotplot(model1,what = "coefs",col = "blue",lwd = 10)

4 结果解读

image.png

这是代码生成的模型规则集(rule sets)committees空值模型的数量
针对上述生成的规则,采用python进行栅格结果的确定

上一篇下一篇

猜你喜欢

热点阅读