简单线性回归 (Simple Linear Regression

2018-01-18  本文已影响497人  foochane

1. 介绍

回归(regression) Y变量为连续数值型(continuous numerical variable),如:房价,人数,降雨量

分类(Classification): Y变量为类别型(categorical variable),如:颜色类别,电脑品牌,有无信誉

2. 简单线性回归(Simple Linear Regression)

3. 简单线性回归介绍

4. 简单线性回归模型

5. 简单线性回归方程

E(y) = β01x

这个方程对应的图像是一条直线,称作回归线
其中,β0是回归线的截距,β1是回归线的斜率 ,E(y)是在一个给定x值下y的期望值(均值)

6. 正向线性关系:

7. 负向线性关系:

8. 无关系

9. 估计的简单线性回归方程

ŷ=b0+b1x

这个方程叫做估计线性方程(estimated regression line)

其中,b0是估计线性方程的纵截距
b1是估计线性方程的斜率
ŷ是在自变量x等于一个给定值的时候,y的估计值

10. 线性回归分析流程:

11. 关于偏差ε的假定

12 . 简单线性回归模型举例:

汽车卖家做电视广告数量与卖出的汽车数量:

12 .1 如何练处适合简单线性回归模型的最佳回归线?

使

最小

12 .2 计算



计算b1

分子 = (1-2)(14-20)+(3-2)(24-20)+(2-2)(18-20)+(1-2)(17-20)+(3-2)(27-20)

= 6 + 4 + 0 + 3 + 7
= 20

分母 = (1-2)^2 + (3-2)^2 + (2-2)^2 + (1-2)^2 + (3-2)^2
= 1 + 1 + 0 + 1 + 1
= 4

b1 = 20/4 =5

计算b0

b0 = 20 - 5*2 = 20 - 10 = 10

12. 3预测:

假设有一周广告数量为6,预测的汽车销售量是多少?


代码实现:


# 简单现行回归:只有一个自变量 y=k*x+b 预测使 (y-y*)^2  最小
import numpy as np


def fitSLR(x, y):
    n = len(x)
    dinominator = 0
    numerator = 0
    for i in range(0, n):
        numerator += (x[i] - np.mean(x)) * (y[i] - np.mean(y))
        dinominator += (x[i] - np.mean(x)) ** 2

    print("numerator:" + str(numerator))
    print("dinominator:" + str(dinominator))

    b1 = numerator / float(dinominator)
    b0 = np.mean(y) / float(np.mean(x))

    return b0, b1


# y= b0+x*b1
def prefict(x, b0, b1):
    return b0 + x * b1


x = [1, 3, 2, 1, 3]
y = [14, 24, 18, 17, 27]

b0, b1 = fitSLR(x, y)
y_predict = prefict(6, b0, b1)
print("y_predict:" + str(y_predict))

运行结果:

numerator:20.0
dinominator:4.0
y_predict:40.0





            【注】:本文为麦子学院机器学习课程的学习笔记

上一篇下一篇

猜你喜欢

热点阅读