用简明的理由说明以下命题是正确的、错误的或者不确定的。当身方差性出现时,[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计量是有偏说的和非有效的。
用简明的理由说明以下命题是正确的、错误的或者不确定的。当身方差性出现时,[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计量是有偏说的和非有效的。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]如果[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]回归的残差表现出系统模式,这就说明数据中存在异方差性。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]如果[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]回归的残差表现出系统模式,这就说明数据中存在异方差性。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]在异方差性的情况下,常用的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]法必定高估了估计量的标准误。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]在异方差性的情况下,常用的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]法必定高估了估计量的标准误。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]如果一个回归模型误设(比如说,漏掉一个重要变量),则[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]残差必定表现出明显的样式。
用简明的理由说明以下命题是正确的、错误的或者不确定的。[br][/br]如果一个回归模型误设(比如说,漏掉一个重要变量),则[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]残差必定表现出明显的样式。
考虑如下过原点的回归模型:[tex=8.429x1.214]RrZJRmGQOTmZN4fo/5rIU8mo2loSrMDE+hzphrfcJezlXcnddFYcDUUh114gF8WG[/tex][br][/br]告诉你 [tex=5.571x1.571]3H+sjXiy5vWVc5hoh6uvijad49E6YjNV/MpuTMSs1b5g8IasjjPRrsFrExFsvxmx[/tex] 和[tex=6.5x1.571]QpZIaJSHgnpf7cMOLrN/FoQFcI9DtQ1Y8QihDDXTMfkRrcwdZ2WkK8P6+/KYE8iO[/tex] 而且它们相互独立。若[tex=6.929x1.214]i482tRI6n4ShKjHhnI6eiMlU07u6rYVoyK4KcX+cEOc=[/tex], 计算 [tex=0.571x1.214]CyLt5nwVs0oLAbCn8AssqQ==[/tex]的加权最小二乘([tex=2.286x1.0]i9+T3+gy8KCJEXzXFt6PKQ==[/tex])估计量及其方差。若你此时不正确地假定了误差方差相同(比方都等于 [tex=1.0x1.214]+33urkkz3/Nyr4sGrqM3/w==[/tex] ), 那么 [tex=0.571x1.214]CyLt5nwVs0oLAbCn8AssqQ==[/tex]的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计量是什么? 其方差又是多少? 与用 [tex=2.286x1.0]i9+T3+gy8KCJEXzXFt6PKQ==[/tex]方法得到的估计量相比, 你能得 到什么一般性结论?
考虑如下过原点的回归模型:[tex=8.429x1.214]RrZJRmGQOTmZN4fo/5rIU8mo2loSrMDE+hzphrfcJezlXcnddFYcDUUh114gF8WG[/tex][br][/br]告诉你 [tex=5.571x1.571]3H+sjXiy5vWVc5hoh6uvijad49E6YjNV/MpuTMSs1b5g8IasjjPRrsFrExFsvxmx[/tex] 和[tex=6.5x1.571]QpZIaJSHgnpf7cMOLrN/FoQFcI9DtQ1Y8QihDDXTMfkRrcwdZ2WkK8P6+/KYE8iO[/tex] 而且它们相互独立。若[tex=6.929x1.214]i482tRI6n4ShKjHhnI6eiMlU07u6rYVoyK4KcX+cEOc=[/tex], 计算 [tex=0.571x1.214]CyLt5nwVs0oLAbCn8AssqQ==[/tex]的加权最小二乘([tex=2.286x1.0]i9+T3+gy8KCJEXzXFt6PKQ==[/tex])估计量及其方差。若你此时不正确地假定了误差方差相同(比方都等于 [tex=1.0x1.214]+33urkkz3/Nyr4sGrqM3/w==[/tex] ), 那么 [tex=0.571x1.214]CyLt5nwVs0oLAbCn8AssqQ==[/tex]的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计量是什么? 其方差又是多少? 与用 [tex=2.286x1.0]i9+T3+gy8KCJEXzXFt6PKQ==[/tex]方法得到的估计量相比, 你能得 到什么一般性结论?
序列相关模型。考虑如下模型:[tex=6.286x1.214]D1z9SbmfrwaNrCF5191fbAmE/TQvvRqdM4cGpMyAmb8dEAbbSbEc+lcYVzPjPot0[/tex]假定[tex=0.857x1.0]h7qy0/eEwqozaS+0Yv1hIQ==[/tex]服从马尔可夫--阶自回归模式,即:[tex=5.357x1.143]4A70q3+fR+zje1OhJuvtM3WDD4/NRif6Iq41mmFGuiCMpQIAa6oJG65hJ5y6Gdyc[/tex][br][/br]其中 [tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]是(一阶)自相关系数, 而 [tex=0.786x1.0]rgBgx3oVK8kLI4gZl4r8h6eC0heD6Yk0x8glSuI74BE=[/tex]满足全部经典 [tex=2.071x1.0]6IFVrSlzEX1I5EtqK4jUaQ==[/tex] 假定。于是, 如第 12 章所证明的那样,模型[tex=16.0x1.357]+NEqD03BU3gb0lNvdmysO3zP2BrOsiLT4dU7t0T66sjl5yQjEH1Ir7uUPY0Ezebff46D7YZePKaj/wqICXehPciV/IHAkbQHF6H6PkEESBGYLospsW4JY2b33qKSazk0[/tex][br][/br]将有一序列无关的误差项,使得[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计成为可能。但这个所谓的序列相关模型[tex=12.357x1.357]ql6/zk5egR8ESPbrfVB6RfZZ2pO3uRBknAol9WDJlRA=[/tex]非常像考伊克、适应性预期和局部调整模型。那么,你怎样会知道在某个给定情形中上述模型中的哪一个是适用的?
序列相关模型。考虑如下模型:[tex=6.286x1.214]D1z9SbmfrwaNrCF5191fbAmE/TQvvRqdM4cGpMyAmb8dEAbbSbEc+lcYVzPjPot0[/tex]假定[tex=0.857x1.0]h7qy0/eEwqozaS+0Yv1hIQ==[/tex]服从马尔可夫--阶自回归模式,即:[tex=5.357x1.143]4A70q3+fR+zje1OhJuvtM3WDD4/NRif6Iq41mmFGuiCMpQIAa6oJG65hJ5y6Gdyc[/tex][br][/br]其中 [tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]是(一阶)自相关系数, 而 [tex=0.786x1.0]rgBgx3oVK8kLI4gZl4r8h6eC0heD6Yk0x8glSuI74BE=[/tex]满足全部经典 [tex=2.071x1.0]6IFVrSlzEX1I5EtqK4jUaQ==[/tex] 假定。于是, 如第 12 章所证明的那样,模型[tex=16.0x1.357]+NEqD03BU3gb0lNvdmysO3zP2BrOsiLT4dU7t0T66sjl5yQjEH1Ir7uUPY0Ezebff46D7YZePKaj/wqICXehPciV/IHAkbQHF6H6PkEESBGYLospsW4JY2b33qKSazk0[/tex][br][/br]将有一序列无关的误差项,使得[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]估计成为可能。但这个所谓的序列相关模型[tex=12.357x1.357]ql6/zk5egR8ESPbrfVB6RfZZ2pO3uRBknAol9WDJlRA=[/tex]非常像考伊克、适应性预期和局部调整模型。那么,你怎样会知道在某个给定情形中上述模型中的哪一个是适用的?
估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]:科克伦奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:[tex=6.929x1.214]AE3m5A+tNZNXJrc+Fu4KdnlxYs9V4gArNBKBVlwLEucHH0ExVswTCW/aGCsYZaHP[/tex] (1)[br][/br]及[tex=1.571x1.0]8bU3aSlnZ+dqUsj3CTY5/A==[/tex](1)模式[tex=11.357x1.214]YICc9mhjfQIF13wdVs3alOlXnIy8bPDkGNyx+2iI5fKl4i99tI/8SccSH31QNIyu60h81W5L6PjjNvu+YBVFew==[/tex] (2)[br][/br]于是科克伦和奥克特推荐如下步骤来估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]。[br][/br]1.用通常的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]方法估计方程(1) 并得到残差[tex=0.857x1.214]djBDm8U9pq7vl0HVHAK/lQ==[/tex]顺便指出,你可以在模型中包含不止一个[tex=0.857x1.0]N7iCrOsS+NNEUUlnsYCi1g==[/tex]变量。2.利用第1步得到的残差做如下回归:[br][/br][tex=5.5x1.214]O+PrZ7cDfxqJ9+xoqaP2UrnTSqFEuUIzPcZLKtJvzVBirNyRA4cukmtuA9tTbgpb[/tex] (3)[br][/br]这是方程(2)在实证中的对应表达式.3. 利用方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex], 估计广义差分方程(12.9.6)。[br][/br]4. 由于事先不知道方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex]是不是 $\rho$ 的最佳估计值, 所以把第 3 步中得到的 [tex=0.857x1.571]bcDweyJBh2HlrgIqBs3adTYzcarmOCVhEBBLN/5jNjU=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex] 值代人原回归 (1), 并得到新的残差 [tex=0.929x1.357]aLe6mS4QCh58uwS0DC+cNg==[/tex]为[br][/br][tex=7.214x1.571]p7Ib3aZMpNrAuO+PUydVYPKHgqip6k0HIh2qJ6Ffx6fuWZHzoc4FNPC5kyl3FXtOzZj+7w/m+J6xHeII6QzNdw==[/tex] (4)[br][/br]由于[tex=0.857x1.214]QRLHoW2+aKLO1L7GJLM+Jw==[/tex], [tex=1.143x1.214]LnI4oL+T006vWk2WQP3QAA==[/tex], [tex=1.071x1.571]yXwWQo+f1wtlfbDj7iY3YstERmvx+EuwbEybRiDlQgw=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex]皆已知, 故很容易计算出来。[br][/br]5.现在估计如下回归[tex=5.429x1.429]KjB8dwyu7v5EUj4SVIjWZO2N0zI9Ei34s5jCQ8F5wT94Lt3Qpo2Bz+6/Dg1bwm492Vr8h0PJDYBM3LXJh4/pTw==[/tex] (5)它类似于方程(3), 并给出[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值。由于我们不知道[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值是不是真实[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦~奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的两个相邻估计值相差很小(比如不足0.01或0.005)时,便可停止迭代。在工资一生产率一例中,在停止之前约需要3次迭代。你认为在变换数据以解决自相关问题时保留第一次观测重要吗?
估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]:科克伦奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:[tex=6.929x1.214]AE3m5A+tNZNXJrc+Fu4KdnlxYs9V4gArNBKBVlwLEucHH0ExVswTCW/aGCsYZaHP[/tex] (1)[br][/br]及[tex=1.571x1.0]8bU3aSlnZ+dqUsj3CTY5/A==[/tex](1)模式[tex=11.357x1.214]YICc9mhjfQIF13wdVs3alOlXnIy8bPDkGNyx+2iI5fKl4i99tI/8SccSH31QNIyu60h81W5L6PjjNvu+YBVFew==[/tex] (2)[br][/br]于是科克伦和奥克特推荐如下步骤来估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]。[br][/br]1.用通常的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]方法估计方程(1) 并得到残差[tex=0.857x1.214]djBDm8U9pq7vl0HVHAK/lQ==[/tex]顺便指出,你可以在模型中包含不止一个[tex=0.857x1.0]N7iCrOsS+NNEUUlnsYCi1g==[/tex]变量。2.利用第1步得到的残差做如下回归:[br][/br][tex=5.5x1.214]O+PrZ7cDfxqJ9+xoqaP2UrnTSqFEuUIzPcZLKtJvzVBirNyRA4cukmtuA9tTbgpb[/tex] (3)[br][/br]这是方程(2)在实证中的对应表达式.3. 利用方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex], 估计广义差分方程(12.9.6)。[br][/br]4. 由于事先不知道方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex]是不是 $\rho$ 的最佳估计值, 所以把第 3 步中得到的 [tex=0.857x1.571]bcDweyJBh2HlrgIqBs3adTYzcarmOCVhEBBLN/5jNjU=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex] 值代人原回归 (1), 并得到新的残差 [tex=0.929x1.357]aLe6mS4QCh58uwS0DC+cNg==[/tex]为[br][/br][tex=7.214x1.571]p7Ib3aZMpNrAuO+PUydVYPKHgqip6k0HIh2qJ6Ffx6fuWZHzoc4FNPC5kyl3FXtOzZj+7w/m+J6xHeII6QzNdw==[/tex] (4)[br][/br]由于[tex=0.857x1.214]QRLHoW2+aKLO1L7GJLM+Jw==[/tex], [tex=1.143x1.214]LnI4oL+T006vWk2WQP3QAA==[/tex], [tex=1.071x1.571]yXwWQo+f1wtlfbDj7iY3YstERmvx+EuwbEybRiDlQgw=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex]皆已知, 故很容易计算出来。[br][/br]5.现在估计如下回归[tex=5.429x1.429]KjB8dwyu7v5EUj4SVIjWZO2N0zI9Ei34s5jCQ8F5wT94Lt3Qpo2Bz+6/Dg1bwm492Vr8h0PJDYBM3LXJh4/pTw==[/tex] (5)它类似于方程(3), 并给出[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值。由于我们不知道[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值是不是真实[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦~奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的两个相邻估计值相差很小(比如不足0.01或0.005)时,便可停止迭代。在工资一生产率一例中,在停止之前约需要3次迭代。你认为在变换数据以解决自相关问题时保留第一次观测重要吗?
估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]:科克伦奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:[tex=6.929x1.214]AE3m5A+tNZNXJrc+Fu4KdnlxYs9V4gArNBKBVlwLEucHH0ExVswTCW/aGCsYZaHP[/tex] (1)[br][/br]及[tex=1.571x1.0]8bU3aSlnZ+dqUsj3CTY5/A==[/tex](1)模式[tex=11.357x1.214]YICc9mhjfQIF13wdVs3alOlXnIy8bPDkGNyx+2iI5fKl4i99tI/8SccSH31QNIyu60h81W5L6PjjNvu+YBVFew==[/tex] (2)[br][/br]于是科克伦和奥克特推荐如下步骤来估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]。[br][/br]1.用通常的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]方法估计方程(1) 并得到残差[tex=0.857x1.214]djBDm8U9pq7vl0HVHAK/lQ==[/tex]顺便指出,你可以在模型中包含不止一个[tex=0.857x1.0]N7iCrOsS+NNEUUlnsYCi1g==[/tex]变量。2.利用第1步得到的残差做如下回归:[br][/br][tex=5.5x1.214]O+PrZ7cDfxqJ9+xoqaP2UrnTSqFEuUIzPcZLKtJvzVBirNyRA4cukmtuA9tTbgpb[/tex] (3)[br][/br]这是方程(2)在实证中的对应表达式.3. 利用方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex], 估计广义差分方程(12.9.6)。[br][/br]4. 由于事先不知道方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex]是不是 $\rho$ 的最佳估计值, 所以把第 3 步中得到的 [tex=0.857x1.571]bcDweyJBh2HlrgIqBs3adTYzcarmOCVhEBBLN/5jNjU=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex] 值代人原回归 (1), 并得到新的残差 [tex=0.929x1.357]aLe6mS4QCh58uwS0DC+cNg==[/tex]为[br][/br][tex=7.214x1.571]p7Ib3aZMpNrAuO+PUydVYPKHgqip6k0HIh2qJ6Ffx6fuWZHzoc4FNPC5kyl3FXtOzZj+7w/m+J6xHeII6QzNdw==[/tex] (4)[br][/br]由于[tex=0.857x1.214]QRLHoW2+aKLO1L7GJLM+Jw==[/tex], [tex=1.143x1.214]LnI4oL+T006vWk2WQP3QAA==[/tex], [tex=1.071x1.571]yXwWQo+f1wtlfbDj7iY3YstERmvx+EuwbEybRiDlQgw=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex]皆已知, 故很容易计算出来。[br][/br]5.现在估计如下回归[tex=5.429x1.429]KjB8dwyu7v5EUj4SVIjWZO2N0zI9Ei34s5jCQ8F5wT94Lt3Qpo2Bz+6/Dg1bwm492Vr8h0PJDYBM3LXJh4/pTw==[/tex] (5)它类似于方程(3), 并给出[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值。由于我们不知道[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值是不是真实[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦~奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的两个相邻估计值相差很小(比如不足0.01或0.005)时,便可停止迭代。在工资一生产率一例中,在停止之前约需要3次迭代。利用[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最终估计值,在去掉第一次观测和保留第- -次观测的情况下, 估计工资一生产率回归。结果有何差异?
估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]:科克伦奥克特迭代程序。作为对此程序的一个说明,考虑双变量模型:[tex=6.929x1.214]AE3m5A+tNZNXJrc+Fu4KdnlxYs9V4gArNBKBVlwLEucHH0ExVswTCW/aGCsYZaHP[/tex] (1)[br][/br]及[tex=1.571x1.0]8bU3aSlnZ+dqUsj3CTY5/A==[/tex](1)模式[tex=11.357x1.214]YICc9mhjfQIF13wdVs3alOlXnIy8bPDkGNyx+2iI5fKl4i99tI/8SccSH31QNIyu60h81W5L6PjjNvu+YBVFew==[/tex] (2)[br][/br]于是科克伦和奥克特推荐如下步骤来估计[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]。[br][/br]1.用通常的[tex=2.071x1.0]gK8iXL/QdPRlpuLJxLDDvw==[/tex]方法估计方程(1) 并得到残差[tex=0.857x1.214]djBDm8U9pq7vl0HVHAK/lQ==[/tex]顺便指出,你可以在模型中包含不止一个[tex=0.857x1.0]N7iCrOsS+NNEUUlnsYCi1g==[/tex]变量。2.利用第1步得到的残差做如下回归:[br][/br][tex=5.5x1.214]O+PrZ7cDfxqJ9+xoqaP2UrnTSqFEuUIzPcZLKtJvzVBirNyRA4cukmtuA9tTbgpb[/tex] (3)[br][/br]这是方程(2)在实证中的对应表达式.3. 利用方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex], 估计广义差分方程(12.9.6)。[br][/br]4. 由于事先不知道方程(3)中得到的 [tex=0.643x1.214]P6gYoyl65MNY35qC9a/IJg==[/tex]是不是 $\rho$ 的最佳估计值, 所以把第 3 步中得到的 [tex=0.857x1.571]bcDweyJBh2HlrgIqBs3adTYzcarmOCVhEBBLN/5jNjU=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex] 值代人原回归 (1), 并得到新的残差 [tex=0.929x1.357]aLe6mS4QCh58uwS0DC+cNg==[/tex]为[br][/br][tex=7.214x1.571]p7Ib3aZMpNrAuO+PUydVYPKHgqip6k0HIh2qJ6Ffx6fuWZHzoc4FNPC5kyl3FXtOzZj+7w/m+J6xHeII6QzNdw==[/tex] (4)[br][/br]由于[tex=0.857x1.214]QRLHoW2+aKLO1L7GJLM+Jw==[/tex], [tex=1.143x1.214]LnI4oL+T006vWk2WQP3QAA==[/tex], [tex=1.071x1.571]yXwWQo+f1wtlfbDj7iY3YstERmvx+EuwbEybRiDlQgw=[/tex]和 [tex=1.071x1.571]4Axz3DiPgazlp97kY3yYxcJLT0LxX+J90Re2Av16gUY=[/tex]皆已知, 故很容易计算出来。[br][/br]5.现在估计如下回归[tex=5.429x1.429]KjB8dwyu7v5EUj4SVIjWZO2N0zI9Ei34s5jCQ8F5wT94Lt3Qpo2Bz+6/Dg1bwm492Vr8h0PJDYBM3LXJh4/pTw==[/tex] (5)它类似于方程(3), 并给出[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值。由于我们不知道[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的第二轮估计值是不是真实[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最佳估计值,所以我们进入第三轮估计,如此等等。这正是科克伦~奧克特程序被称为迭代程序的原因。我们该把这种(愉快的)轮回操作进行到什么程度呢?一般的建议是,当[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的两个相邻估计值相差很小(比如不足0.01或0.005)时,便可停止迭代。在工资一生产率一例中,在停止之前约需要3次迭代。利用[tex=0.571x1.0]wZfDAQ5tsV00QsfoitgWPw==[/tex]的最终估计值,在去掉第一次观测和保留第- -次观测的情况下, 估计工资一生产率回归。结果有何差异?