求最小最大后悔值和决策树问题各两道!急!
来源:学生作业帮 编辑:作业帮 分类:政治作业 时间:2024/11/06 03:44:47
求最小最大后悔值和决策树问题各两道!急!
求最小最大后悔值和决策树的简单问题各两道,要有答案的!我急用!
谢谢啊!
求最小最大后悔值和决策树的简单问题各两道,要有答案的!我急用!
谢谢啊!
1.结合实例说明什么是最小最大后悔值法.
最小最大后悔值法也称萨凡奇决策准则
最小最大后悔值法是指管理者在选择了某方案后,如果将来发生的自然状态表明其他方案的收益更大,那么他(或她)会为自已的选择而后悔.最小最大后悔值法就是使后悔值最小的方法.
最小最大后悔值法的运用
在股票市场上,最小最大后悔值法被称为最小后悔法,是股票投资者力图使后悔值降到最低限度的证券投资方法.
由于选取的购买方案往往与预测的企业经营状况存在很大的差异,这样就会出现实际收益大大低于目标收益的状况而使投资者产生后悔.最小后悔法的目的就是要使投资者将这种后悔降低到最低程度.
利用最小后悔法买卖股票的操作程序:
1、列出投资者在各种状态下的购买方案,并在每一购买方案中选出各自然状态下的最大收益值.
2、求出各种自然状态下各种方案的后悔值,其后悔值的公式是:“某方案后悔值”= “某自然状态下的最大收益值”-“该方案的收益值”,然后,将此方案的后悔值填入该方案栏中.
3、由此找出各方案在不同自然状态下的最大后悔值.
4、在各方案的最大后悔值中找出最小的后悔值,最小后悔值所对应的方案即为最优方案.
2.举例说明决策树的作用.
决策树是用二叉树形图来表示处理逻辑的一种工具.可以直观、清晰地表达加工的逻辑要求.特别适合于判断因素比较少、逻辑组合关系不复杂的情况.
决策树提供了一种展示类似在什么条件下会得到什么值这类规则的方法.比如,在贷款申请中,要对申请的风险大小做出判断,图是为了解决这个问题而建立的一棵决策树,从中我们可以看到决策树的基本组成部分:决策节点、分支和叶子.
决策树中最上面的节点称为根节点,是整个决策树的开始.本例中根节点是“收入>¥40,000”,对此问题的不同回答产生了“是”和“否”两个分支.
决策树的每个节点子节点的个数与决策树在用的算法有关.如CART算法得到的决策树每个节点有两个分支,这种树称为二叉树.允许节点含有多于两个子节点的树称为多叉树.
每个分支要么是一个新的决策节点,要么是树的结尾,称为叶子.在沿着决策树从上到下遍历的过程中,在每个节点都会遇到一个问题,对每个节点上问题的不同回答导致不同的分支,最后会到达一个叶子节点.这个过程就是利用决策树进行分类的过程,利用几个变量(每个变量对应一个问题)来判断所属的类别(最后每个叶子会对应一个类别).
假如负责借贷的银行官员利用上面这棵决策树来决定支持哪些贷款和拒绝哪些贷款,那么他就可以用贷款申请表来运行这棵决策树,用决策树来判断风险的大小.“年收入>¥40,00”和“高负债”的用户被认为是“高风险”,同时“收入5年”的申请,则被认为“低风险”而建议贷款给他/她.
数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测(就像上面的银行官员用他来预测贷款风险).常用的算法有CHAID、 CART、 Quest 和C5.0.
建立决策树的过程,即树的生长过程是不断的把数据进行切分的过程,每次切分对应一个问题,也对应着一个节点.对每个切分都要求分成的组之间的“差异”最大.
各种决策树算法之间的主要区别就是对这个“差异”衡量方式的区别.对具体衡量方式算法的讨论超出了本文的范围,在此我们只需要把切分看成是把一组数据分成几份,份与份之间尽量不同,而同一份内的数据尽量相同.这个切分的过程也可称为数据的“纯化”.看我们的例子,包含两个类别--低风险和高风险.如果经过一次切分后得到的分组,每个分组中的数据都属于同一个类别,显然达到这样效果的切分方法就是我们所追求的.
到现在为止我们所讨论的例子都是非常简单的,树也容易理解,当然实际中应用的决策树可能非常复杂.假定我们利用历史数据建立了一个包含几百个属性、输出的类有十几种的决策树,这样的一棵树对人来说可能太复杂了,但每一条从根结点到叶子节点的路径所描述的含义仍然是可以理解的.决策树的这种易理解性对数据挖掘的使用者来说是一个显著的优点.
然而决策树的这种明确性可能带来误导.比如,决策树每个节点对应分割的定义都是非常明确毫不含糊的,但在实际生活中这种明确可能带来麻烦(凭什么说年收入¥40,001的人具有较小的信用风险而¥40,000的人就没有).
最小最大后悔值法也称萨凡奇决策准则
最小最大后悔值法是指管理者在选择了某方案后,如果将来发生的自然状态表明其他方案的收益更大,那么他(或她)会为自已的选择而后悔.最小最大后悔值法就是使后悔值最小的方法.
最小最大后悔值法的运用
在股票市场上,最小最大后悔值法被称为最小后悔法,是股票投资者力图使后悔值降到最低限度的证券投资方法.
由于选取的购买方案往往与预测的企业经营状况存在很大的差异,这样就会出现实际收益大大低于目标收益的状况而使投资者产生后悔.最小后悔法的目的就是要使投资者将这种后悔降低到最低程度.
利用最小后悔法买卖股票的操作程序:
1、列出投资者在各种状态下的购买方案,并在每一购买方案中选出各自然状态下的最大收益值.
2、求出各种自然状态下各种方案的后悔值,其后悔值的公式是:“某方案后悔值”= “某自然状态下的最大收益值”-“该方案的收益值”,然后,将此方案的后悔值填入该方案栏中.
3、由此找出各方案在不同自然状态下的最大后悔值.
4、在各方案的最大后悔值中找出最小的后悔值,最小后悔值所对应的方案即为最优方案.
2.举例说明决策树的作用.
决策树是用二叉树形图来表示处理逻辑的一种工具.可以直观、清晰地表达加工的逻辑要求.特别适合于判断因素比较少、逻辑组合关系不复杂的情况.
决策树提供了一种展示类似在什么条件下会得到什么值这类规则的方法.比如,在贷款申请中,要对申请的风险大小做出判断,图是为了解决这个问题而建立的一棵决策树,从中我们可以看到决策树的基本组成部分:决策节点、分支和叶子.
决策树中最上面的节点称为根节点,是整个决策树的开始.本例中根节点是“收入>¥40,000”,对此问题的不同回答产生了“是”和“否”两个分支.
决策树的每个节点子节点的个数与决策树在用的算法有关.如CART算法得到的决策树每个节点有两个分支,这种树称为二叉树.允许节点含有多于两个子节点的树称为多叉树.
每个分支要么是一个新的决策节点,要么是树的结尾,称为叶子.在沿着决策树从上到下遍历的过程中,在每个节点都会遇到一个问题,对每个节点上问题的不同回答导致不同的分支,最后会到达一个叶子节点.这个过程就是利用决策树进行分类的过程,利用几个变量(每个变量对应一个问题)来判断所属的类别(最后每个叶子会对应一个类别).
假如负责借贷的银行官员利用上面这棵决策树来决定支持哪些贷款和拒绝哪些贷款,那么他就可以用贷款申请表来运行这棵决策树,用决策树来判断风险的大小.“年收入>¥40,00”和“高负债”的用户被认为是“高风险”,同时“收入5年”的申请,则被认为“低风险”而建议贷款给他/她.
数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测(就像上面的银行官员用他来预测贷款风险).常用的算法有CHAID、 CART、 Quest 和C5.0.
建立决策树的过程,即树的生长过程是不断的把数据进行切分的过程,每次切分对应一个问题,也对应着一个节点.对每个切分都要求分成的组之间的“差异”最大.
各种决策树算法之间的主要区别就是对这个“差异”衡量方式的区别.对具体衡量方式算法的讨论超出了本文的范围,在此我们只需要把切分看成是把一组数据分成几份,份与份之间尽量不同,而同一份内的数据尽量相同.这个切分的过程也可称为数据的“纯化”.看我们的例子,包含两个类别--低风险和高风险.如果经过一次切分后得到的分组,每个分组中的数据都属于同一个类别,显然达到这样效果的切分方法就是我们所追求的.
到现在为止我们所讨论的例子都是非常简单的,树也容易理解,当然实际中应用的决策树可能非常复杂.假定我们利用历史数据建立了一个包含几百个属性、输出的类有十几种的决策树,这样的一棵树对人来说可能太复杂了,但每一条从根结点到叶子节点的路径所描述的含义仍然是可以理解的.决策树的这种易理解性对数据挖掘的使用者来说是一个显著的优点.
然而决策树的这种明确性可能带来误导.比如,决策树每个节点对应分割的定义都是非常明确毫不含糊的,但在实际生活中这种明确可能带来麻烦(凭什么说年收入¥40,001的人具有较小的信用风险而¥40,000的人就没有).