17统计基础- 决定系数
2020-12-27 本文已影响0人
不到7不改名
决定系数
注:R-squared的另一个了不起的地方是,它可以量化比简单直线更复杂的关系。
-
我们都知道相关性(correlation)(regular “R”)
-
相关性值(correlation)接近1或-1是好的,告诉你两个定量变量(即z重量和大小)是强相关的。
-
相关性值(correlation)接近0是没有相关性的。
-
-
为什么我们要关心R-squared?什么是R-squared?
-
R-squared和regular “R”非常相似
-
但是更R-squared解释更容易:
-
一般来说,R=0.7是R=0.5的两倍是不明显的
-
但是,R-squared= 0.7是R-squared= 0.5的1.4倍
-
-
计算起来既简单又直观
-
我们可以通过R-squared来量化这蓝线比黑线更拟合数据。
R-squared=
image-20201224122603425.png image-20201224122210603.pngR-squared=0.81,这意味着数据中的大部分变异可以用尺寸/重量关系来解释。这两个变量之间的关系解释了数据中81%的变异。R-squared仅仅是R(correlation)的平方。
-
R2是两个变量之间的关系所解释的变异百分比。
-
如果有人给你一个普通的老R的值,平方它!
注:在统计学上叫决定系数(determination coefficient),它反映了因变量的变异能够被模型(纳入的自变量)所解释的比例,也就是模型解释的变异占总变异的比例,此案例中,这条直线能够解释81%的体重与大小的关系。
image-20201224122504247.png