加权最小二乘法是对原模型加权,使之变成一个新的不存在异方差性的模型,然后采用OLS法估计其参数。加权的基本思想是:在采用OLS方法时,对较小的残差平方赋予较大的权重,对较大的残差平方赋予较小的权重,以对残差提供的信息的重要程度作一番修正,提高参数估计的精确程度。 5、答:
个体行为的差异、技术或经验的进步、异常的观测值及模型设定的错误等方面都可能异方差,通常利用截面数据进行回归的模型容易出现异方差性问题。 6、答:
对于线性回归模型:
LM检验该模型随机误差项是否存在异方差的步骤是 (1)先用OLS估计该模型,得到OLS回归残差平方(2)再用OLS估计如下方程:
记下该回归得到的拟合优度(3)计算LM统计量LM=n*
.
相应的P值(查卡方分布表得到的概率)。如果P值足够小,
序列。
即小于给定的显著性水平的话,那么我们就拒绝同方差的零假设。
(4)如果LM检验的P值很小,那就应该采取一些纠正的措施,一个可能的措施就是用异方差稳健统计量。
7、答:
G-Q检验的步骤可描述如下:
(1) 将n组样本观察值按某一被认为可能引起异方差的解释变量的观察值大小排序。 (2) 将序列中间的c个观察值除去,并将剩下的观察值划分为较小与较大的相同的两个
子样本,每个子样本容量均为(n-c)/2,这样做主要是为了突出小方差样本和大方差样本之间的差异。
(3) 对每个子样本分别进行OLS回归,并计算各自的残差平方和,分别用
表示较小的与较大的残差平方和(自由度均为(n-c)/2-k-1)。
(4) 在同方差性假定下,构造如下满足F分布的统计量
,
35
(5) 给定显著性水平a,确定性临界值。若F>,则拒绝同方差性
假设,表明原模型随机干扰项存在异方差。当然,还可以根据两个残差平方和对应的子样的顺序判断是递增型异方差还是递减型异方差。
五、计算分析题 1、解:
(1)如果?i依赖于总体Pi的容量,则随机扰动项的方差?i2依赖于Pi2。因此,要进行的
2回归的一种形式为?i2??0??1P于是,要检验的零假设H0:?1?0,备择假设H1:i??i。
?1?0。检验步骤如下:
~2; 第一步:使用OLS方法估计模型,并保存残差平方项ei~2对常数项C和P2的回归 第二步:做eii第三步:考察估计的参数?1的t统计量,它在零假设下服从自由度为n-2的t分布。 第四步:给定显著性水平面0.05(或其他),查相应的自由度为n-2的t分布的临界值,
?1的t统计值大于该临界值,则拒绝同方差的零假设。 如果估计的参数?(2)假设?i??Pi时,模型除以Pi有:
YiXXu1??0??11i??22i?i PiPiPiPiPi由于Var(ui/Pi)??i2/Pi2??2,所以在该变换模型中可以使用OLS方法,得出BLUE估计值。方法是对Yi/Pi关于1/Pi、X1i/Pi、X2i/Pi做回归,不包括常数项。 2、解:
(1)是进行异方差G-Q检验.根据G-Q检验方法,可以看出有
2F??e2?e21?58111891372.202?4334.9370
这一F统计量值大于0.05显著性水平下,自由度为(6,6)的F临界值4.28。因此可以判断原模型存在时间上的递增型的异方差问题。 (2)是进行异方差的LM检验,LM统计量LM=
=21*0.5659=11.8839
可以看出该统计量超过了自由度为1,显著性水平为0.05的卡方分布临界值3.8428,因此可以拒绝原模型的同方差性假设,表明原回归模型存在解释变量x所引起的异方差的问题。 (3)结合(1)和(2)的检验结果,可以看到原模型存在着异方差性问题。
3、解:
(1) 方程(a)表明,当N增加一个单位时,平均而言工资W增加0.009个单位.如果用N乘上方程(b)两边,结果就类似于(a).
(2) 作者显然担心回归方程存在异方差问题,因为他用N去除原来的方程两边.这意味则作者假定随机误差好项方差与N的平方成比例.因此作者在(b)中采用了加权最小二乘估计. (3)方程(a)的截距系数就是方程(b)中的斜率系数,而方程(a)中的斜率系数就是方程(b)中
36
的截距系数.
(4) 不能,因为两个模型中的被解释变量不同. 4、解:
(1) 他们假设了随机误差项方差与GNP的平方成比例.他们通过检查各个时期的数据观察到了这种关系.
(2) 结果基本上是相同的,尽管在第二个回归方程中两个系数的标准差比较低.但这仍然表明对异方差进行转换仍然是合理的.
(3) 不能,这里的R平方不能直接进行比较,因为两个模型中的被解释变量是不同的. 5、解:
(1)如果?i依赖于总体Pi的容量,则随机扰动项的方差?i2依赖于Pi2。因此,要进行的
2回归的一种形式为?i2??0??1P于是,要检验的零假设H0:?1?0,备择假设H1:i??i。
?1?0。检验步骤如下:
~2; 第一步:使用OLS方法估计模型,并保存残差平方项ei~2对常数项C和P2的回归 第二步:做eii第三步:考察估计的参数?1的t统计量,它在零假设下服从自由度为n-2的t分布。 第四步:给定显著性水平面0.05(或其他),查相应的自由度为n-2的t分布的临界值,
?1的t统计值大于该临界值,则拒绝同方差的零假设。 如果估计的参数?(2)假设?i??Pi时,模型除以Pi有:
YiXXu1??0??11i??22i?i PiPiPiPiPi由于Var(ui/Pi)??i2/Pi2??2,所以在该变换模型中可以使用OLS方法,得出BLUE估计值。方法是对Yi/Pi关于1/Pi、X1i/Pi、X2i/Pi做回归,不包括常数项。 6、解: (1)由RSS??(w?)??(wY??w??wX2tttt0t1t1t??2wtX2t)2对各?求偏导并令值为
零,可得如下正规方程组:
?(wY?w?wX?(wY?w?wX?(wY?w?wXtttttttttttt1t1t1t?wtX2t)wt?0?wtX2t)wtX1t?0 ?wtX2t)wtX2t?0(2)用Z去除原模型,得如下新模型:
37
?(?(?((3)如果用
Yt?0XX1???11t??22t)?0ZtZtZtZtZtYt?0XXX???11t??22t)1t?0 ZtZtZtZtZtYt?0XXX???11t??22t)2t?0ZtZtZtZtZt1代替(1)中的wt,则容易看到与(2)中的正规方程组是一样的。 Zt
六、上机练习题
Eviews软件中Y关于X的OLS回归结果如表所示 Dependent Variable: Y Variable X C R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 下面进行异方差性的检验。
38
Coefficient Std. t-Statistic Error 2.950245 0.060144 Prob. 0.0094 0.9528 2555.8 3374.43 18.81653 18.91546 8.703945 0.009406 Included observations: 18 0.032189 0.010911 64.45285 1071.646 0.35233 Mean dependent var 0.311851 S.D. dependent var 2799.251 Akaike info criterion 1.25E+08 Schwarz criterion -167.3488 F-statistic 2.662222 Prob(F-statistic) Park检验:
在上述回归估计作出后,选择“Quick\\Generate Series”,在出现的对话框中输入“e=resid”,然后估计如下回归:
Ine2??0??1InX??
得 Ine??6.903?1.878InX (-1.295)(3.846)
2R2= 0.4804
根据Park检验规则,我们无法拒绝异方差性。
Glejser检验:
选择不同的函数形式,做ei关于X的不同函数形式的OLS回归,得
ei = 0.0259Xi - 286.21
(4.9910)(-0.5621)
R2=0.6089
ei = 13.3441Xi - 1690.641
(4.3437) (-1.9781)
R2=0.5411
ei = -235193431 + 2465.928 Xi(-1.9575) (4.1718)
R2=0.1932
从前两个回归方程看,表明存在异方差性。 Goldfeld-Quandt检验:
按X从小到大排序后,去掉中间的4个数据,分别以前7个与后7个数据样本做Y关于X的回归,得
? = 0.0491X - 499.91 Y(4.53) (-1.96)
R2=0.8038 RSS2=412586
39