文档详情

第五章 决策树-2016-ID3CART.pdf

发布:2017-10-03约3.39万字共85页下载文档
文本预览下载声明
袁春 清华大学深圳研究生院 李航 华为诺亚方舟实验室 目录 1. 决策树模型与学习 2. 特征选择 3. 决策树的生成 4. 决策树的剪枝 5. CART算法 一、决策树的模型与学习 例子 决策树模型 决策树和归纳算法 决策树-从机器学习看分类及归纳推理等问题 决策树算法 决策树的表示 决策树与条件概率分布 决策树 通过对分类问题一般方法的描述,可以看出分类问题 一般包括两个步骤: 1 、模型构建 (归纳) 通过对训练集合的归纳,建立分类模型。 2、预测应用 (推论) 根据建立的分类模型,对测试集合进行测试。 决策树 决策树是一种典型的分类方法 首先对数据进行处理,利用归纳算法生成可读的规则和 决策树, 然后使用决策对新数据进行分析。 本质上决策树是通过一系列规则对数据进行分类的过程。 决策树 决策树的优点 1 、推理过程容易理解,决策推理过程可以表示成If Then 形式; 2、推理过程完全依赖于属性变量的取值特点; 3 、可自动忽略目标变量没有贡献的属性变量,也为判断 属性变量的重要性,减少变量的数 目提供参考。 决策树和归纳算法 决策树技术发现数据模式和规则的核心是归纳算法。 归纳是从特殊到一般的过程。 归纳推理从若干个事实中表征出的特征、特性和属性中, 通过比较、总结、概括而得出一个规律性的结论。 归纳推理试图从对象的一部分或整体的特定的观察中获 得一个完备且正确的描述。即从特殊事实到普遍性规律 的结论。 归纳对于认识的发展和完善具有重要的意义。人类知识 的增长主要来源于归纳学习。 决策树和归纳算法 归纳学习由于依赖于检验数据,因此又称为检验学习。 归纳学习存在一个基本的假设: 任一假设如果能够在足够大的训练样本集中很好的逼近 目标函数,则它也能在未见样本中很好地逼近 目标函数。 该假定是归纳学习的有效性的前提条件。 决策树和归纳算法 归纳过程就是在描述空间中进行搜索的过程。 归纳可分为自顶向下,自底向上和双向搜索三种方式。  自底向上法一次处理一个输入对象。将描述逐步一般化。 直到最终的一般化描述。  自顶向下法对可能的一般性描述集进行搜索,试图找到 一些满足一定要求的最优的描述。 决策树 从特殊的训练样例中归纳出一般函数是机器学习的中 心问题; 从训练样例中进行学习通常被视为归纳推理。 每个例子都是一个对偶 (序偶) (x, f(x)),对 每个输入的x,都有确定的输出f(x)。 学习过程将产生对 目标函数f的不同逼近。F的每一 个逼近都叫做一个假设。 假设需要以某种形式表示。例如,y ax+b。通过调 整假设的表示,学习过程将产生出假设的不同变形。 在表示中通常需要修改参数 (如a, b)。 决策树 从这些不同的变形中选择最佳的假设 (或者说权值集合)。 方法的定义: 使训练值与假设值 预测出的值之间的误差平方和E最小为最佳。 ^ 2 E (Vtrain(b) V (b)) b,Vtrain (b )trainingexamples 决策树算法 与决策树相关的重要算法包括: CLS, ID3 ,C4.5,CART 算法的发展过程 Hunt,Marin和Stone 于1966年研制的CLS学习系统,用于学习单个概 念。 1979年, J.R. Quinlan 给出ID3算法,并在1983年和1986年对ID3 进行了 总结和简化,使其成为决策树学习算法的典型。
显示全部
相似文档