当前位置:懂科普 >

综合知识

> 决策树怎么用

决策树怎么用

1.决策树怎么用

(1) 决策树包含了决策点,通常用方格或方块表示,在该点表示决策者必须做出某种选择;机会点,用圆圈表示,通常表示有机会存在。

决策树怎么用

先画一个方框作为出发点,叫做决策点; (2) 从决策点向右引出若干条支线(树枝线),每条支线代表一个方案,叫做方案枝; (3) 在每个方案枝的末端画一个圆圈,叫做状态点; (4) 估计每个方案发生的概率,并把它注明在在该种方案的分支上,称为概率枝; (5) 估计每个方案发生后产生的损益值,收益用正值表示,损失用负值表示; (6) 计算每个方案的期望价值,期望价值=损益值x该方案的概率; (7) 如果问题只需要一级决策,在概率枝末端画△表示终点,并写上各个自然状态的损益值; (8) 如果是多级决策,则用决策点□代替终点△重复上述步骤继续画出决策树。 (9) 计算决策期望值,决策期望值=由此决策而发生的所有方案期望价值之和; (10) 根据决策期望值做出决策。

2.如何运用决策树进行决策分析

决策树分析法是通过决策树图形展示临床重要结局,明确思路,比较各种备选方案预期结果进行决策的方法。

决策树分析法通常有6个步骤。

第一步:明确决策问题,确定备选方案。对要解决的问题应该有清楚的界定,应该列出所有可能的备选方案。

第二步:绘出决策树图形。决策树用3种不同的符号分别表示决策结、机会结、结局结。决策结用图形符号如方框表示,放在决策树的左端,每个备选方案用从该结引出的]个臂(线条)表示;实施每一个备选方案时都司能发生一系列受机遇控制的机会事件,用图形符号圆圈表示,称为机会结,每一个机会结司以有多个直接结局,例如某种治疗方案有3个结局(治愈、改善、药物毒性致死),则机会结有3个臂。最终结局用图形符号如小三角形表示,称为结局结,总是放在决策树最右端。从左至右机会结的顺序应该依照事件的时间先后关系而定。但不管机会结有多少个结局,从每个机会结引出的结局必须是互相排斥的状态,不能互相包容或交叉。

第三步:明确各种结局可能出现的概率。可以从文献中类似的病人去查找相关的概率,也可以从临床经验进行推测。所有这些概率都要在决策树上标示出来。在为每一个机会结发出的直接结局臂标记发生概率时,必须注意各概率相加之和必须为1.0。

第四步:对最终结局用适宜的效用值赋值。效用值是病人对健康状态偏好程度的测量,通常应用0-1的数字表示,一般最好的健康状态为1,死亡为0。有时可以用寿命年、质量调整寿命年表示。

第五步:计算每一种备远方案的期望值。计算期望值的方法是从"树尖"开始向"树根"的方向进行计算,将每一个机会结所有的结局效用值与其发生概率分别相乘,其总和为该机会结的期望效用值。在每一个决策臂中,各机会结的期望效用值分别与其发生概率相乘,其总和为该决策方案的期望效用值,选择期望值最高的备选方案为决策方案。

第六步:应用敏感性试验对决策分析的结论进行测试。敏感分析的目的是测试决策分析结论的真实性。敏感分析要回答的问题是当概率及结局效用值等在一个合理的范围内变动时,决策分析的结论会不会改变。

3.决策树法的步骤

(1)绘制决策树图。从左到右的顺序画决策树,此过程本身就是对决策问题的再分析过程。

(2)按从右到左的顺序计算各方案的期望 值,并将结果写在相应方案节点上方。期望值的计算是从右到左沿着决策树的反方向进行计算的。

(3)对比各方案的期望值的大小,进行剪枝优选。在舍去备选方案枝上,用“=”记号隔断。

4.决策树怎么画

决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。

从数据产生决策树的机器学习技术叫做决策树学习, 通俗说就是决策树。

一个决策树包含三种类型的节点: 决策节点:通常用矩形框来表示 机会节点:通常用圆圈来表示 终结点:通常用三角形来表示

5.决策树的应用

决策树是用二叉树形图来表示处理逻辑的一种工具。

可以直观、清晰地表达加工的逻辑要求。特别适合于判断因素比较少、逻辑组合关系不复杂的情况。

决策树提供了一种展示类似在什么条件下会得到什么值这类规则的方法。比如,在贷款申请中,要对申请的风险大小做出判断,图是为了解决这个问题而建立的一棵决策树,从中我们可以看到决策树的基本组成部分:决策节点、分支和叶子。

决策树中最上面的节点称为根节点,是整个决策树的开始。本例中根节点是“收入>¥40,000”,对此问题的不同回答产生了“是”和“否”两个分支。

决策树的每个节点子节点的个数与决策树在用的算法有关。如CART算法得到的决策树每个节点有两个分支,这种树称为二叉树。

允许节点含有多于两个子节点的树称为多叉树。 每个分支要么是一个新的决策节点,要么是树的结尾,称为叶子。

在沿着决策树从上到下遍历的过程中,在每个节点都会遇到一个问题,对每个节点上问题的不同回答导致不同的分支,最后会到达一个叶子节点。这个过程就是利用决策树进行分类的过程,利用几个变量(每个变量对应一个问题)来判断所属的类别(最后每个叶子会对应一个类别)。

假如负责借贷的银行官员利用上面这棵决策树来决定支持哪些贷款和拒绝哪些贷款,那么他就可以用贷款申请表来运行这棵决策树,用决策树来判断风险的大小。“年收入>¥40,00”和“高负债”的用户被认为是“高风险”,同时“收入< ¥40,000”但“工作时间>5年”的申请,则被认为“低风险”而建议贷款给他/她。

数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测(就像上面的银行官员用他来预测贷款风险)。常用的算法有CHAID、CART、Quest 和C5.0。

建立决策树的过程,即树的生长过程是不断的把数据进行切分的过程,每次切分对应一个问题,也对应着一个节点。对每个切分都要求分成的组之间的“差异”最大。

各种决策树算法之间的主要区别就是对这个“差异”衡量方式的区别。对具体衡量方式算法的讨论超出了本文的范围,在此我们只需要把切分看成是把一组数据分成几份,份与份之间尽量不同,而同一份内的数据尽量相同。

这个切分的过程也可称为数据的“纯化 ”。看我们的例子,包含两个类别--低风险和高风险。

如果经过一次切分后得到的分组,每个分组中的数据都属于同一个类别,显然达到这样效果的切分方法就是我们所追求的。 到现在为止我们所讨论的例子都是非常简单的,树也容易理解,当然实际中应用的决策树可能非常复杂。

假定我们利用历史数据建立了一个包含几百个属性、输出的类有十几种的决策树,这样的一棵树对人来说可能太复杂了,但每一条从根结点到叶子节点的路径所描述的含义仍然是可以理解的。决策树的这种易理解性对数据挖掘的使用者来说是一个显著的优点。

然而决策树的这种明确性可能带来误导。比如,决策树每个节点对应分割的定义都是非常明确毫不含糊的,但在实际生活中这种明确可能带来麻烦(凭什么说年收入¥40,001的人具有较小的信用风险而¥40,000的人就没有)。

建立一颗决策树可能只要对数据库进行几遍扫描之后就能完成,这也意味着需要的计算资源较少,而且可以很容易的处理包含很多预测变量的情况,因此决策树模型可以建立得很快,并适合应用到大量的数据上。 对最终要拿给人看的决策树来说,在建立过程中让其生长的太“枝繁叶茂”是没有必要的,这样既降低了树的可理解性和可用性,同时也使决策树本身对历史数据的依赖性增大,也就是说这是这棵决策树对此历史数据可能非常准确,一旦应用到新的数据时准确性却急剧下降,我们称这种情况为训练过度。

为了使得到的决策树所蕴含的规则具有普遍意义,必须防止训练过度,同时也减少了训练的时间。因此我们需要有一种方法能让我们在适当的时候停止树的生长。

常用的方法是设定决策树的最大高度(层数)来限制树的生长。还有一种方法是设定每个节点必须包含的最少记录数,当节点中记录的个数小于这个数值时就停止分割。

与设置停止增长条件相对应的是在树建立好之后对其进行修剪。先允许树尽量生长,然后再把树修剪到较小的尺寸,当然在修剪的同时要求尽量保持决策树的准确度尽量不要下降太多。

对决策树常见的批评是说其在为一个节点选择怎样进行分割时使用“贪心”算法。此种算法在决定当前这个分割时根本不考虑此次选择会对将来的分割造成什么样的影响。

换句话说,所有的分割都是顺序完成的,一个节点完成分割之后不可能以后再有机会回过头来再考察此次分割的合理性,每次分割都是依赖于他前面的分割方法,也就是说决策树中所有的分割都受根结点的第一次分割的影响,只要第一次分割有一点点不同,那么由此得到的整个决策树就会完全不同。那么是否在选择一个节点的分割的同时向后考虑两层甚至更多的方法,会具有更好的结果呢?目前我们知道的还不是很清楚,但至少这种方法使建立决策树的计算量成倍的增长,因此现在还没有哪个产品使用这种方法。

而且,通常的分割算法在决定怎么在一个节点。

6.决策树法

方法一:利用单元格格式中的边框实现 1。

利用单元格中分行的效果:首先在单元格中输入“性别”,这时候如果按回车键的话,光标就会转到其他单元格中去,所以必须按“Alt+回车键”,光标转到下一行,接着输入“姓名”,然后再在“性别”前加入若干空格(或插入文本框分别输入性别、姓名),达到效果。 2。

在单元格中设置斜线:选择单元格,在右键菜单中选择“设置单元格格式”,在出现的对话框中选择“边框”标签,进行斜线的设置。 优势:能够比较迅速地绘出标准的斜线表头。

劣势:只能在单元格中画出对角斜线,并不能画出任意斜线。 方法二:利用绘图工具实现,这也是大家比较常用的一种方式。

首先在Excel中选择一个单元格,然后打开Excel的“绘图”工具栏,单击该工具栏的“直线”图标,将所需要的线段全部画在工作表上,并调整好合适的位置,可以为表格创建出任意样式的斜线表头来。下面我们就说明具体制作。

1。制作字符文本框 注意:为了能在斜线区域中方便地调整字符位置,使字符在斜线区域中合理地布局,需要将每一文本框中设定只有一个字符。

其原因也很简单,这样能尽可能减小表头空间大小,从而将表头做得更加紧凑。使用“方框”按钮可以方便地在斜线上下方添加文字,但文字周围有边框,要想取消,可选中文字框,调出快捷菜单,选择“对象格式”→“图案”,选择“无边框”即可。

2。创建直线对象 单击“绘图”按钮,选取“直线”,鼠标变成十字形状,将直线移至要添加斜线的开始位置,按鼠标左键拖动至终止位置,释放鼠标,斜线就画出来了。

3。组合斜线表头 在组合斜线表头时,最好按照从上到下的次序进行。

首先,将一条直线放入表头中,单击鼠标使直线出现编辑点,然后分别拖动线段两端的编辑点,将直线与斜线表头表格线上的相应位置相重合,然后在该线的中段产生一个新的编辑点,将直线拖放到表格线的相应位置上; 这样斜线区域就设置好了;最后,再添加该斜线区域中的标题字符或图像,这一区域的全部操作就完成了。 优势:能够实现各种不规则的斜线表头。

劣势:对于初学者来说难度颇高,需要一定的技巧。 方法三:粘贴Word中已制好的斜线表头 对于Word中有多种添加斜线表头的方式,如“表格”菜单中的“绘制斜线表头”即有多种样式,也可按上述方法操作绘制斜线表头,完成大家熟悉的表头制作后,复制到Excel中,同样可达到相应的效果。

优势:这种方法最为简便,也很省力。 劣势:Word只提供了五种斜线表头样式,选择范围有限。

7.决策树分析法的利用决策树评价生产方案

决策树是确定生产能力方案的一条简捷的途径。决策树不仅可以帮助人们理解问题,还可以帮助人们解决问题。决策树是一种通过图示罗列解题的有关步骤以及各步骤发生的条件与结果的一种方法。近年来出现的许多专门软件包可以用来建立和分析决策树,利用这些专门软件包,解决问题就变得更为简便了。

决策树由决策结点、机会结点与结点间的分枝连线组成。通常,人们用方框表示决策结点,用圆圈表示机会结点,从决策结点引出的分枝连线表示决策者可作出的选择,从机会结点引出的分枝连线表示机会结点所示事件发生的概率。

在利用决策树解题时,应从决策树末端起,从后向前,步步推进到决策树的始端。在向前推进的过程中,应在每一阶段计算事件发生的期望值。需特别注意:如果决策树所处理问题的计划期较长,计算时应考虑资金的时间价值。

计算完毕后,开始对决策树进行剪枝,在每个决策结点删去除了最高期望值以外的其他所有分枝,最后步步推进到第一个决策结点,这时就找到了问题的最佳方案。

下面以南方医院供应公司为例,看一看如何利用决策树作出合适的生产能力计划。

南方医院供应公司是一家制造医护人员的工装大褂的公司。该公司正在考虑扩大生产能力。它可以有以下几个选择:1、什么也不做;2、建一个小厂;3、建一个中型厂;4、建一个大厂。新增加的设备将生产一种新型的大褂,目前该产品的潜力或市场还是未知数。如果建一个大厂且市场较好就可实现$100,000的利润。如果市场不好则会导致$90,000的损失。但是,如果市场较好,建中型厂将会获得$ 60,000,小型厂将会获得$40,000,市场不好则建中型厂将会损失$10,000,小型厂将会损失$5,000。当然,还有一个选择就是什么也不干。最近的市场研究表明市场好的概率是0.4,也就是说市场不好的概率是0.6。参下图:

在这些数据的基础上,能产生最大的预期货币价值(EMV)的选择就可找到。

EMV(建大厂)=(0.4)*($100,000)+(0.6)*(-$90,000)=-$14,000 EMV(中型厂)=(0.4) *($ 600,000))+(0.6)* (-$10,000)=+$18,000 EMV(建小厂)=(0.4)* ($40,000)+(0.6)*(-$5,000)=+$13,000 EMV(不建厂)=$0 根据EMV标准,南方公司应该建一个中型厂。

8.决策树的适用范围是什么

决策树的适用范围:

科学的决策是现代管理者的一项重要职责。我们在企业管理实践中,常遇到的情景是:若干个可行性方案制订出来了,分析一下企业内、外部环境,大部分条件是己知的,但还存在一定的不确定因素。每个方案的执行都可能出现几种结果,各种结果的出现有一定的概率,企业决策存在着一定的胜算,也存在着一定的风险。这时,决策的标准只能是期望值。即,各种状态下的加权平均值。

针对上述问题,用决策树法来解决不失为一种好的选择。

决策树法作为一种决策技术,已被广泛地应用于企业的投资决策之中,它是随机决策模型中最常见、最普及的一种规策模式和方法此方法,有效地控制了决策带来的风险。所谓决策树法,就是运用树状图表示各决策的期望值,通过计算,最终优选出效益最大、成本最小的决策方法。决策树法属于风险型决策方法,不同于确定型决策方法,二者适用的条件也不同。应用决策树决策方法必须具备以下条件:

1、具有决策者期望达到的明确目标;

2、存在决策者可以选择的两个以上的可行备选方案;

3、存在着决策者无法控制的两种以上的自然状态(如气候变化、市场行情、经济发展动向等);

5、不同行动方案在不同自然状态下的收益值或损失值(简称损益值)可以计算出来;

6、决策者能估计出不同的自然状态发生概率。

决策树(decisiontree)一般都是自上而下的来生成的。每个决策或事件(即自然状态)都可能引出两个或多个事件,导致不同的结果,把这种决策分支画成图形很像一棵树的枝干,故称决策树。

标签: 决策树
  • 文章版权属于文章作者所有,转载请注明 https://dongkepu.com/zonghezhishi/dwl9mg.html