第三章 双变回归模型-估计问题.ppt
文本预览下载声明
chapter three Two-Variable Regression Model:Problem of Estimation 第一节 普通最小二乘法(OLS) 第一节 普通最小二乘法(OLS) 回归分析的主要目的,根据SRF去估计PRF 残差 SRF又是怎样决定的呢? 准则一: 该准则合理吗? 第一节 普通最小二乘法(OLS) 第一节 普通最小二乘法(OLS) 准则二:最小二乘法则 杜绝了残差 在SRF周围散布很宽,总和却很小的可能 故只需对 求导,并令其等于零,便可解出 。 最小二乘法的数学原理 将所有纵向距离平方后相加,即得误差平方和,“最好”直线就是使误差平方和最小的直线,即拟合直线在总体上最接近实际观测点。 于是可以运用求极值的原理,将求最好拟合直线问题转换为求误差平方和最小的问题。 求 解 正规方程(normal equations)及其解 OLS估计量的数值性质 易计算性 OLS估计量是纯粹由可观测的(即样本)量表达的,因此这些量是容易计算的。 点估计量 即对于给定的样本,每一估计量仅提供有关总体参数的一个(点)值 一旦从样本数据得到OLS估计值,便容易画出样本回归线。 该回归线有如下性质: 它通过Y和X的样本均值; 估计的Y均值等于实测的Y均值; 残差估计量的均值为0; 残差估计量和预测的Y值不相关; 残差估计量和X不相关。 第二节 古典线性回归模型:OLS的基本假定 统计推断的两个部分:参数估计和假设检验。 如果我们的目的仅仅是模型参数,则第一节所用的方法就足够了,但我们的目的不仅仅是获得参数估计值,而且要对真实的贝塔系数作出推断。 PRF: 对解释变量和误差作出假定是必要的。 古典线性回归模型(classical linear regression model, CLRM),又称高斯(Gaussian)或标准(standard)线性回归模型。 CLRM的基本假设 假定1:线性回归模型 模型 对参数而言是线性的 假定2: X是非随机的 在重复抽样中,X 值是固定的。条件回归分析。 假定3:扰动项 的均值为零。 CLRM的基本假设 CLRM的基本假设 假定4:同方差性,即 的方差相等 注意几个术语 同方差性(homoscedasticity) 异方差性(heteroscedasticity) CLRM的基本假设 CLRM的基本假设 CLRM的基本假设 假定5:扰动项无序列相关(serial correlation)或自相关(auto correlation) CLRM的基本假设 假定6:ui 和Xi 的协方差为零,或 假定7:观测次数n必须大于待估参数的个数 假定8:X 的值要有变异性 假定9:正确地设定了模型 假定10:无多重共线性(多元回归模型再讨论) 解释变量之间没有完全的线性关系。 CLRM可信吗? 计量经济学中的CLRM相当于微观经济学中的完全竞争模型。 第三节 OLS 估计的精度 OLS估计量随样本的变动而变动,估计量精度(precision)由估计量的标准误差(standard error, se)来衡量。 第三节 OLS 估计的精度 的估计 是真实但未知的 的OLS估计量 n-2 是被称为自由度(degrees of freedom, df)的个数 则表示残差平方和(residual sum of squares, RSS) 第四节 OLS的性质:高斯-马尔科夫定理 高斯-马尔可夫定理(Gauss–Markov theorem): 在给定经典线性回归模型的假定下,OLS估计量,在无偏线性估计量中,有最小方差,即OLS估计量是最优线性无偏估计量(best linear unbiased estimator, BLUE)。 BLUE 1、线性:指的是参数估计量是被解释变量的线性函数。 2、无偏性:参数估计量的均值(数学期望)等于被估计的真值,即 3、有效性(最小方差性):在所有上述线性无偏估计量中具有最小方差 第五节 拟合优度的度量:判定系数 r2 拟合优度(goodness of fit)是指样本回归线与样本观测值之间的拟合程度。 判定系数r2 (Coefficient of determination)或R2 就是衡量样本回归线对数据拟合程度的总度量。 如何计算呢? 恒等式变换 把该式进行恒等式变换: ( 的变异) (由 变异所解释的部分)(未解释部分) 用小写
显示全部