计量经济学中级教程 答案 潘省初 清华大学出版社(3)

2019-05-17 18:37

?(3)城镇:Cut= 106.41 + 0.71Yut R=0.998

t: (13.74) (91.06) DW=2.02

DW=2.02,非常接近2,无自相关。

3.14 (1)用表中的数据回归,得到如下结果:

? =54.19 + 0.061X1 + 1.98*X2 + 0.03X3 - 0.06X4 R2=0.91 Y2

t: (1.41) (1.58) (3.81) (1.14) (-1.78) 根据tc(α=0.05,n-k-1=26)=2.056,只有X2的系数显著。

(2)理论上看,有效灌溉面积、农作物总播种面积是农业总产值的重要正向影响因素。在一定范围内,随着有效灌溉面积、播种面积的增加,农业总产值会相应增加。受灾面积与农业总产值呈反向关系,也应有一定的影响。而从模型看,这些因素都没显著影响。这是为什么呢?

这是因为变量有效灌溉面积、施肥量与播种面积间有较强的相关性,所以方程存在多重共线性。现在我们看看各解释变量间的相关性,相关系数矩阵如下:

X1 X2 X3 X4 1 0.896 0.880 0.715

0.896 1 0.895 0.685

0.880 0.895 1 0.883

0.715 0.685 0.883 1

X1 X2 X3 X4

表中r12=0.896,r13=0.895,说明施肥量与有效灌溉面积和播种面积间高度相关。 我们可以通过对变量X2的变换来消除多重共线性。令X22=X2/X3(公斤/亩),这样就大大降低了施肥量与面积之间的相关性,用变量X22代替X2,对模型重新回归,结果如下:

? =-233.62 + 0.088X1 + 13.66*X2 + 0.096X3 - 0.099X4 R2=0.91 Yt: (-3.10) (2.48) (3.91) (4.77) (-3.19)

从回归结果的t值可以看出,现在各个变量都已通过显著性检验,说明多重共线性问题基本得到解决。

11

第四章 极大似然估计与GMM 估计

4.1 由于观测是独立的,所以n次观测的联合密度即这个样本的似然函数为

nn?n?i?1yiL(f(

?y)??iy??)e??i??n1i?1yi!

其对数似然函数为:

nn lnL(?y)??n??(ln?)?yi?ln(?yi!)

i?1i?1由极值得一阶条件可得:

?lnL(?y)????n?1n??yi?0???ML?yn

i?1对于所给定的观测样本,有:

lnL(?y)??10??20ln??12.242 dlnL(?y)/d???10?20/??0????2 因此,?的极大似然估计值??ML?2。 4.2

?1?E(X)?(a?b)/2, ?222?E(X)?D(X)?[E(X)]

?(b?a)2/12?(a?b)2/4.即 ?a?b?2??1,12(?

?b?a? 2??21).自这一方程解得 a??1?3(?22??1), b??1?3(?2??21).

分别以S1,S2代替?1,?2,得到a,b的矩估计量分别为1n2n?Xi?X2?1nn?(Xi?X)2)

: i?1i?1 12

注意到

(??S1?a3(S2?S)?X?221

??S?b13(S2?S1)?X?(X?ni?1n3ni?X),2

i?(Xni?13?X)24.3 应该选择三种方法中的W检验。原因:在本题中,约束条件为非线性函数的形式,无约束方程是一个线性回归方程,而约束条件加上后的有约束方程为参数非线性的回归方程。LR检验需要估计无约束方程和有约束方程;LM检验需要估计有约束方程,由于约束方程参数非线性,所以计算工作也较大;相对前面两种方法,W检验仅需估计无约束方程,而无约束方程是一个线性方程,计算工作量最小。 4.4

广义矩法直接从模型所施加的矩条件来估计模型,矩条件的一般形式为:

?f1(yt,xt,zt,θ)??0?????f2(yt,xt,zt,θ)0???? E???????????f(y,x,z,θ)?Rttt??0? 为了估计θ,我们考虑上述矩条件的样本对应物

gn(θ)?1n?nt?1f(yt,xt,zt,θ)

在矩条件的个数大于参数的个数(R?K)的情况下,我们不能通过设定矩条件为0来唯一确定参数向量θ的估计量,为了充分利用R个矩条件的信息,我们只能转而借助最优化方法的思路,选择使得样本矩向量从总体上尽可能接近于0的θ的估计量。这就是广义矩估计方法的思路。具体的做法是将下面的加权平方和(亦称为距离函数)

Qn(θ)?gn(θ)?Wngn(θ)

?,作为目标函数,求出使该目标函数达到最小的θ的值θ就得到GMM估计量。上式中,Wn为任意正定矩阵,称为权矩阵。

4.5 广义矩方法直接从模型所施加的矩条件来估计模型。与其它估计法相比,GMM法有下列几个显著的优点:

(1) 它无需规定正态分布之类的有关分布的假设,GMM估计量的一致性仅取决于矩条件的正确设定;

(2)它为那些传统估计方法计算很困难特别是模型无法解析求解的情况提供了一种方便的方法;

13

(3)它为很多类似估计量,如ML、OLS、IV等的分析提供了一个统一的框架。 4.6 OLS估计结果:CZSR=-675.3+0.026 GDP+0.939 TAX R2=0.9987

t (2.86) (19.91)

ML估计结果: CZSR=-675.3+0.026 GDP+0.939 TAX

z (3.61) (26.46)

可见,在线性回归条件下,OLS和ML的系数估计结果完全相同。

GMM估计的EViews结果如下:

GMM估计结果

Dependent Variable: CZSR

Method: Generalized Method of Moments Date: 01/20/09 Time: 21:14 Sample (adjusted): 1991 2007

Included observations: 17 after adjustments

Kernel: Bartlett, Bandwidth: Fixed (2), No prewhitening Simultaneous weighting matrix & coefficient iteration

Convergence achieved after: 1 weight matrix, 2 total coef iterations Instrument list: GDZC TAX(-1) C

Variable GDP TAX C

R-squared Adjusted R-squared S.E. of regression Durbin-Watson stat

Coefficient

0.036881 0.889754 -1080.255

Std. Error

0.016569 0.085142 554.1925

t-Statistic

2.225889 10.45021 -1.949241

Prob.

0.0430 0.0000 0.0716

16372.43 13734.44 3785967. 7.80E-27

0.998746 Mean dependent var 0.998566 S.D. dependent var 520.0252 Sum squared resid 1.137633 J-statistic

从上述结果,我们有:

CZSR=--1080.3+0.037 GDP+0.890 TAX R2=0.9987

t (2.23) (10.45)

第五章 非线性回归模型

5.1 如果目标函数S(β)为凸函数,则S(β)至多有一个极小点,且局部极小即是整体最小,迭代会收敛到最小值,但初值的选择对迭代速度的影响相当大。如果目标函数S(β)不是凸

14

函数但有唯一极小点,迭代也会有不错的效果。但如果目标函数S(β)有多于一个的极小点,迭代可能收敛到局部极小点,不能保证是整体最小点,则迭代那么初值的选择就更加重要。

5.2 判断迭代收敛并没有一致接受的标准,通常的标准有:

(1)目标函数的改进小于给定的正数?,即S(β (2)参数值的变化小于给定的正数?,βj?1j?1j)?S(β)??

?βj??

(3)梯度向量与零的距离小于给定的正数?,g(βj)??

(4)上述三个收敛原则不能完全令人满意,一个原因是它们都与参数的量级有关。一个与量级无关的停止规则是g'(βj)D?1(βj)g(βj)??

上式的优点在于给梯度分量以不同的权重,权重的大小与对应参数估计的精度成反比。收敛标准中?是一个很小的正数,由使用者选择。一般的?值通常在10?12到10?14之间。

5.3 牛顿-拉弗森法和拟牛顿法(包括戈德菲尔德-匡特方法、戴维森-弗莱彻-鲍威尔法与高斯-牛顿法)。

5.4 (1) 采用EViews软件,在主菜单选Quick ?Estimate Equation…,在方程设定对话框中输入方程:y=c(1)*k^c(2)*L^c(3),采用LS估计方法,即可得到模型参数的NLS估计。结果如下:

Dependent Variable: Y

Method: Least Squares

Date: 01/29/09 Time: 23:33

Sample: 1 39 Included observations: 39

Estimation settings: tol= 1.0e-12, derivs=analytic

Initial Values: C(1)=0.00000, C(2)=0.00000, C(3)=0.00000 Convergence achieved after 54 iterations Y=C(1)*K^C(2)*L^C(3)

Coefficien

C(1)

C(2) C(3) R-squared

Adjusted R-squared S.E. of regression Sum squared resid

t

7.632622

Std. Error 6.198935

t-Statistic 1.231280

Prob. 0.2262

0.575950 0.073433 7.843225 0.0000 0.366602 0.110376 3.321408 0.0021

0.827574 Mean dependent var 8117.666 0.817995 S.D. dependent var 3407.416 Akaike info criterion 4.18E+08 Schwarz criterion

15

7986.997 19.17910 19.30707


计量经济学中级教程 答案 潘省初 清华大学出版社(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:周至禹在天美讲设计素描

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: