2 一元、二元简单线性回归模型(续).ppt
文本预览下载声明
二元线性回归模型 回顾:回归问题的处理思路 数据背后存在着某种规律性; 关于数据生成过程的初步假定——设定线性模型 数据生成过程 = 确定性部分+非确定性部分 样本一般说来总会反映一些总体的性质 确定性部分=X、Y之间的函数关系 非确定性部分(扰动项) 平方和最小 数学求极值 利用样本数据寻求到确定性部分。 关于数据生成过程的假定 可依据对现实的抽象,假定数据背后有一个数据生成的过程 有关解释变量 X 的基本假定 矩阵X 为满列秩,即R(X)=3; X1、 X2之间不相关,即 Cov(X1, X2)=0 ; X1、 X2 为固定变量; 若X1、 X2 为随机变量, X与残差项之间不相关,即Cov(x,u)=0 有关随机扰动项ui的基本假设 随机扰动项ui是一个有关总体属性的随机变量,对ui的性质作出假设: 假设1 残差分布均值为零(Zero Mean Error Displacement) 假设2 随机扰动项方差相等(Constant Error Variance) 假设3 随机扰动项(误差)相互独立(Error Independent) 假设4 所有xi都是可观察的并且独立于ui 最小二乘法应用的结果显示: 1、残差和=0 2、残差与解释变量不相关 3、残差与被解释变量拟合值不相关 4、被解释变量实际值与拟合值的均值相等 即: * * ◎ 仅仅是一个初步假定(假定:数据生成过程=确定性部分+非确定性部分),要应用最小二乘法估计该模型, 须作出进一步的假定(为什么?)。 二元线性回归模型 1、模型的数学形式 二元线性回归模型中多引入了一个解释变量,表达式为: 二元线性回归模型 总体回归模型 样本回归模型 取定一个样本, 样本容量为n, 将n组数据分别代入总体回归模型 表达为矩阵形式: 记为: 对样本回归模型应用普通最小二乘法(OLS) 就上式分别对b0、b1、 b2求偏导数,并令其为零: !!说明残差和为零;残差和解释变量之间不相关。 整理联立方程: 进一步可表达为: 进一步: 写为: 得: 该b 值能够保证式: (在 存在时) b的统计特性: 线性性、无偏性、最佳性、服从正态分布 b的估计方差: 替代 模型检验 拟合优度检验 可决系数R2: · 取值范围在0~1之间, 越大,模型拟合程度越高; ·表示两个X 联合起来对Y 的解释程度: ·是衡量模型拟合质量的重要指标; ·具有复相关的含义。 参数检验 (1) 单参数显著性检验——t 检验 若 拒绝H0接受H1 ,说明β显著不为零,或引入模型中的X对Y有解释能力. 若 接受H0 ,说明β与零无显著不同,或引入模型中的X对Y没有解释能力, 予以删除. (2) 参数的总显著性检验——F检验 该检验用于检验X1、X2联合起来对Y的影响是否显著。 H0: βj=0 (j=1,2) H1: 参数中至少有一个不为零 提出假设 构造检验统计量F 若 拒绝H0,接受H1。即X1、X2联合起来对Y的影响是显著的,变量应该被引进,该模型由此在统计上也是可靠的。 接受H0,即β1、β2同时为零,X1、X2不应被引入模型,模型应当重新设定。 判断
显示全部