回归分析,无论是线性回归,还是logistic回归,都和线性方程有密切的关系,通过线性方程探讨自变X对因变量Y的作用。
线性回归方程
logistic回归方程
这两个方程(当然还有其他回归,都是类似的),b0和a值,我们称之为截距,或者翻译称为常量,英文是intercept。
统计分析的时候,一般我们既要对回归系数b1、b2进行假设检验,也要对截距进行假设检验。
线性回归的截距的假设检验
logistic回归的截距的假设检验
那么可以看出来,第1图截距(即常量)的假设检验P值小于0.05,第2图P值大于0.05。
当P大于0.05,意味着什么? 好多人问我了!
怎么解释呢这种现象呢?
常量就是数学中线性函数的截距!它解释的是,不被自变量所解释的,长期稳定存在的非随机部分,也可称为信息残留。
常量的假设检验若P值小于0.05,说明截距不为零,否则则说明截距和零没有统计学差异,也就是回归线要穿过0值了。
对于我们一般应用来说,P值大于0.05怎么办?
无 视!
一般而言,我们用回归探讨影响因素还是控制混杂,都不会去关注截距大小,是否就有
统计学意义,而聚焦于自变量回归系数!当自变量回归系数假设检验具有统计学意义,那么自变量对因变量的作用就存在,整个模型就有统计学意义。且统计报告时,可不用报告常量的结果。
常量项在预测模型构建方面,起到一定的作用,尤其是P小于0.05,它也是重要的角色!
所以,不用怎么管它!OK?