Nonlinear Regression
对于线性回归,能表示成变量的一个线性变换,因此直接表现为的系数。注意,在线性回归中,只要系数是线性的就行,每一个可以是的任意无参表达式,譬如:
对于非线性回归,由于函数的形式可以是灵活的。所以要做确定性的分析比较困难。但是其中有一部分是linearlizable function,可以转化为线性问题来解决。
Linearizable
譬如:,注:是作为系数的参数
可以两边同时取ln,然后化简成:
类似地:
可以通过求转化
对于可以线性化的问题,理论上也不一定能直接用传统方式求解。因为其error项的假设变了[3]。所以理论上我们必须要进行residual analysis.才能使用[4]
Parameter Estimate
线性回归和非线性回归的主要差异在于求解的方法:
问题设定,最小化residual,即:
residual最小,即是最小值的时,即其导数为0的时候,由chain rule可得:
[6]
注:这里是常数
- 所以求解的重点在于,对于线性模型来说,这个偏导数为自变量的函数,当结合上述equation时,就只有是与相关的且其形式也很简单(线性)所以很好导出close form的解[6]。*(整个问题本质就是计算方程根的问题,而线性模型其实就是最终形式太简单,因而可以直接推导出analytical solution)
- 而对于非线性模型来说,不单单是关于的函数,这个偏导数也是与的函数,整个式子形式会很复杂,所以一般就算我们能将formula符号化并进行一些化简,也很难直接计算出解析解。所以对于这类问题主要是iterative base的数值迭代算法:譬如Gauss-Newton Algorithm[5]等,取决于与,选取一个初始值来迭代求解(当然,Linear也可以用迭代的方式求解,但是NonLinear一般都没有解析解)
Refer:
[1]:software:1stopt
[2]:Introduction to Nonlinear Regression
[3]:Introduction to Nonlinear Regression 1:i The Statistically Complete Model
[4]:当然,对非homoscedasticity的数据,可以用WLR
[5]:https://zhuanlan.zhihu.com/p/38185542
[6]:对比Linear有OLS estimator对应close form的唯一解。而Nonlinear: https://en.wikipedia.org/wiki/Non-linear_least_squares,
关于close form的推导,也可以直接用newton equation求得:
https://stats.stackexchange.com/questions/493173/regularised-linear-regression-with-newtons-method
或者直接见OLS estimator的推导,即是这个gradient=0(本身convex),详见:https://en.wikipedia.org/wiki/Ordinary_least_squares
以及ridge estimator
https://www.statlect.com/fundamentals-of-statistics/ridge-regression