在建立多元线性回归模型时,需要对自变量进行筛选,最后确定适合的回归模型。下面的陈述中正确的是
A: 向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B: 向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C: 逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D: 逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中
A: 向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B: 向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C: 逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D: 逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中
举一反三
- 建立回归模型时,变量选择的方法主要有() A: 向前选择 B: 向后剔除 C: 中间插入 D: 逐步回归 E: 最优子集
- 一元线性回归模型只包含一个解释变量(自变量)和一个被解释变量(因变量),是最简单的线性回归模型
- Logit模型与多元线性回归比较( ) A: Logit模型的因变量为二分变量 B: 多元线性回归的因变量为二分变量 C: Logit模型和多元线性回归的因变量都可为二分变量 D: Logit模型的自变量必须是二分类变量
- 在某些回归模型中,其因变量为虚拟变量,而自变量为定量变量或定性变量,此种回归分析称作线性回归分析。()
- 下列关于回归分析的说法中不正确的是( ). A: 自变量也称为预测变量、解释变量 B: 因变量也称为响应变量、结果变量 C: 回归模型中只能有一个自变量 D: 回归诊断是回归分析的重要组成部分