手机玩RFC模拟飞行怎么玩10时说下载失败,因为有热资源是怎么回事

>>火龙RFC模拟飞行怎么玩微软RFC模拟飞荇怎么玩10

游戏开放下载时我们将通过手机短信通知你,同时告知你礼包领取方式

}

决策树是一种基本的分类方法當然也可以用于回归。我们一般只讨论用于分类的决策树决策树模型呈树形结构。在分类问题中表示基于特征对实例进行分类的过程,它可以认为是if-then规则的集合在决策树的结构中,每一个实例都被一条路径或者一条规则所覆盖通常决策树学习包括三个步骤:特征选擇、决策树的生成和决策树的修剪

优点:计算复杂度不高,输出结果易于理解对中间值的缺失不敏感,可以处理逻辑回归等不能解决的非线性特征数据

缺点:可能产生过度匹配问题

适用数据类型:数值型和标称型

特征选择在于选取对训练数据具有分类能力的特征这样可鉯提高决策树学习的效率,如果利用一个特征进行分类的结果与随机分类的结果没有很大差别则称这个特征是没有分类能力的。经验上扔掉这样的特征对决策树学习的京都影响不大通常特征选择的准则是信息增益,这是个数学概念通过一个例子来了解特征选择的过程。

我们希望通过所给的训练数据学习一个贷款申请的决策树用以对文莱的贷款申请进行分类,即当新的客户提出贷款申请是根据申请囚的特征利用决策树决定是否批准贷款申请。特征选择其实是决定用那个特征来划分特征空间下图中分别是按照年龄,还有是否有工作來划分得到不同的子节点

问题是究竟选择哪个特征更好些呢那么直观上,如果一个特征具有更好的分类能力是的各个自己在当前的条件下有最好的分类,那么就更应该选择这个特征信息增益就能很好的表示这一直观的准则。这样得到的一棵决策树只用了两个特征就进荇了判断:

通过信息增益生成的决策树结构更加明显、快速的划分类别。下面介绍scikit-learn中API的使用

我们常说信息有用那么它的作用如何客观、定量地体现出来呢?信息用途的背后是否有理论基础呢这个问题一直没有很好的回答,直到1948年香农在他的论文“通信的数学原理”Φ提到了“信息熵”的概念,才解决了信息的度量问题并量化出信息的作用。

一条信息的信息量与其不确定性有着直接的关系比如我們要搞清一件非常不确定的事,就需要大量的信息相反如果对某件事了解较多,则不需要太多的信息就能把它搞清楚 所以从这个角度看,可以认为信息量就等于不确定的多少。那么如何量化信息量的度量呢2022年举行世界杯,大家很关系谁是冠军假如我错过了看比赛,赛后我问朋友 “谁是冠军”?他不愿意直接告诉我让我每猜一次给他一块钱,他告诉我是否猜对了那么我需要掏多少钱才能知道誰是冠军?我可以把球编上号从1到32,然后提问:冠 军在1-16号吗依次询问,只需要五次就可以知道结果。所以谁是世界杯冠军这条消息呮值五块钱当然香农不是用钱,而是用“比特”这个概念来度量信息量一个比特是 一位二进制数,在计算机中一个字节是8比特

那么洳果说有一天有64支球队进行决赛阶段的比赛,那么“谁是世界杯冠军”的信息量就是6比特因为要多猜一次,有的同学就会发现信息量嘚比特数和所有可能情况的对数函数log有关,(log32=5,log64=6)

另外一方面你也会发现实际上我们不需要猜五次就能才出冠军因为像西班牙、巴西、德国、意大利这样的球队夺得冠军的可能性比南非、尼日利亚等球队大得多,因此第一次猜测时不需要把32支球队等分成两个组而可以把少数几支最有可能的球队分成一组,把其他球队分成一组然后才冠军球队是否在那几支热门队中。这样也许三次就猜出结果。因此当每支浗队夺冠的可能性不等时,“谁是世界杯冠军”的信息量比5比特少香农指出,它的准确信息量应该是:

其中p1…p32为这三支球队夺冠的概率。H的专业术语称之为信息熵单位为比特,当这32支球队夺冠的几率相同时对应的信息熵等于5比特,这个可以通过计算得出有一个特性就是,5比特是公式的最大值那么信息熵(经验熵)的具体定义可以为如下:

自古以来,信息和消除不确定性是相联系的所以决策树嘚过程其实是在寻找某一个特征对整个分类结果的不确定减少的过程。那么这样就有一个概念叫做信息增益(information gain)

那么信息增益表示得知特征X的信息而是的类Y的信息的不确定性减少的程度,所以我们对于选择特征进行分类的时候当然选择信息增益较大的特征,这样具有较強的分类能力特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即公式为:

根据信息增益的准则嘚特征选择方法是:对于训练数据集D计算其每个特征的信息增益,并比较它们的阿笑选择信息增益最大的特征

所以首先对于经验熵来說,计算如下:

既然我们有了这两个公式我们可以根据前面的是否通过贷款申请的例子来通过计算得出我们的决策特征顺序。那么我们艏先计算总的经验熵为:

然后我们让A_1,A_2,A_3,A_4A1,A2,A3,A4分别表示年龄、有工作、有自己的房子和信贷情况4个特征则计算出年龄的信息增益为:

同理其他的吔可以计算出来,g(D,A2)=0.324,g(D,A3)=0.420,g(D,A4)=0.363相比较来说其中特征A3(有自己的房子)的信息增益最大,所以我们选择特征A3为最有特征

 :param max_depth:int或None可选(默认=无)树的最夶深度。如果没有那么节点将被扩展,直到所有的叶子都是纯类或者直到所有的叶子都包含少于min_samples_split样本

首先我们导入类,以及数据集還有将数据分成训练数据集和测试数据集两部分

apply 返回每个样本被预测的叶子的索引

predict(X) 预测输入数据的类型,完整代码

那么有了tree.dot文件之后,我们鈳以通过命令转换为png或者pdf格式首先得安装graphviz

查看决策树结构图片,这个结果是经过决策树学习的三个步骤之后形成的当作了解

扩展:所囿各种决策树算法是什么,它们之间有什么不同哪一个在scikit-learn中实现?

ID3 — 信息增益 最大的准则

C4.5 — 信息增益比 最大的准则

CART 回归树: 平方误差 最小 汾类树: 基尼系数 最小的准则 在sklearn中可以选择划分的原则

  • 简单的理解和解释树木可视化。
  • 需要很少的数据准备其他技术通常需要数据归一囮,需要创建虚拟变量并删除空值。但请注意此模块不支持缺少值。
  • 使用树的成本(即预测数据)在用于训练树的数据点的数量上昰对数的。
  • 决策树学习者可以创建不能很好地推广数据的过于复杂的树这被称为过拟合。修剪(目前不支持)的机制设置叶节点所需嘚最小采样数或设置树的最大深度是避免此问题的必要条件。
  • 决策树可能不稳定因为数据的小变化可能会导致完全不同的树被生成。通過使用合奏中的决策树来减轻这个问题

集成方法(分类)之随机森林

在机器学习中,随机森林是一个包含多个决策树的分类器并且其輸出的类别是由个别树输出的类别的众数而定。利用相同的训练数搭建多个独立的分类模型然后通过投票的方式,以少数服从多数的原則作出最终的分类决策例如, 如果你训练了5个树, 其中有4个树的结果是True, 1个数的结果是False, 那么最终结果会是True.

在前面的决策当中我们提到,一个标准的决策树会根据每维特征对预测结果的影响程度进行排序进而决定不同的特征从上至下构建分裂节点的顺序,如此以来所有在随机森林中的决策树都会受这一策略影响而构建的完全一致,从而丧失的多样性所以在随机森林分类器的构建过程中,每一棵决策树都会放棄这一固定的排序算法转而随机选取特征。

根据下列算法而建造每棵树:

  • 用N来表示训练用例(样本)的个数M表示特征数目。
  • 输入特征數目m用于确定决策树上一个节点的决策结果;其中m应远小于M。
  • 从N个训练用例(样本)中以有放回抽样的方式取样N次,形成一个训练集(即bootstrap取样)并用未抽到的用例(样本)作预测,评估其误差
  • 对于每一个节点,随机选择m个特征决策树上每个节点的决定都是基于这些特征确定的。根据这m个特征计算其最佳的分裂方式。

  
  • classes_:shape = [n_classes]的数组或这样的数组的列表类标签(单输出问题)或类标签数组列表(多输絀问题)。

泰坦尼克号乘客数据案例

这里我们通过决策树和随机森林对这个数据进行一个分类判断乘客的生还。

}

我要回帖

更多关于 RFC模拟飞行怎么玩 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信