提出的假设是正相关,为什么要加入自变量的二次项代入模型检验呢?(在做回归分析之前为什么要做相关性检验?)
在做回归分析之前为什么要做相关性检验?
1、相关分析相当于先检验一下众多的自变量和因变量之间是否存在相关性,当然通过相关分析求得相关系数没有回归分析的准确。
如果相关分析时各自变量跟因变量之间没有相关性 ,就没有必要再做回归分析;如果有一定的相关性了,然后再通过回归分析进一步验证他们之间的准确关系。
同时 相关分析还有一个目的,可以查看一下 自变量之间的共线性程度如何,如果自变量间的相关性非常大,可能表示存在共线性。
2、相关分析只是了解变量间的共变趋势,我们只能通过相关分析确定变量间的关联,这种关联是没有方向性的,可能是A影响B,也可能是B影响A,还有可能是A与B互相影响,相关分析没法确定变量间的关联究竟是哪一种。
而这就是我们需要使用回归分析解决的问题,我们通过回归分析对自变量与因变量进行假设,然后可以验证变量间的具体作用关系,这时的变量关系就是有具体方向性的了。
所以相关分析通常也会被作为一种描述性的分析,而回归分析得到的结果更为重要和精确。
计量经济学为什么要对回归模型作基本假定?基本假定的作用是什么?
是为了使最小二乘估计量满足一致性,无偏性和有效性。所以必须做这些假定。
相关系数与回归系数的假设检验等价,为什么?
当回归分析里面只有一个自变量的时候,相关性分析得出的显著性水平和回归分析得出的显著性水平是一样的,且相关系数正好等于回归分析里面的R值,R的平方就是拟合度。但是回归系数的数值和相关系数的数值不想等。
当回归分析里面有多个自变量的时候,相关系数和回归系数就完全不是一回事了,这个时候的回归系数叫做偏回归系数。
为什么要有“校正的判定係数”
计量经济学在建立多元回归模型时,有一个检验工具是判定係数R^2,还有一个进一步的“校正的判定係数”。从计量经济学的道理上说,自变量增多,判定係数会增加,使模型的解释能力看起来很好,越来越好。但自变量个数增加,会损失自由度,不利于参数的假设检验。
如果有3个原因就能基本上说清楚,比如解释了90%,这模型已经很不错了。如果自变量增加到5个,解释能力有95%。但此时,自由度多损失了2个。