天天看点

|NO.Z.00008|——————————|BigDataEnd|——|Arithmetic&Machine.v08|——|Machine:监督学习算法.v07|

一、决策树的算法评价

### --- 决策树的算法评价

~~~     # 决策树优点
~~      易于理解和解释,因为树木可以画出来被看见。
~~      需要很少的数据准备。其他很多算法通常都需要数据规范化,需要创建虚拟变量并删除空值等。
~~~     但请注意,sklearn 中的决策树模块不支持对缺失值的处理。
~~      使用树的成本(比如说,在预测数据的时候)是用于训练树的数据点的数量的对数,
~~~     相比于其他算法,这是一个很低的成本。
~~      能够同时处理数字和分类数据,既可以做回归又可以做分类。
~~~     其他技术通常专门用于分析仅具有一种变量类型的数据集。
~~      即使其假设在某种程度上违反了生成数据的真实模型,也能够表现良好。      
### --- 决策树缺点

~~~     # 使用决策树可能创建过于复杂的树,这些树不能很好地推广数据。这称为过度拟合。
~~~     修剪,设置 叶节点所需的最小样本数或设置树的最大深度等机制是避免此问题所必需的,
~~~     而这些参数的整合和调整对 初学者来说会比较晦涩。

~~~     # 决策树可能不稳定,数据中微小的变化可能导致生成完全不同的树,
~~~     这个问题需要通过集成算法来解决。

~~~     # 决策树的学习是基于贪婪算法,它靠优化局部最优(每个节点的最优)来试图达到整体的最优,
~~~     但这种做法不能保证返回全局最优决策树。这个问题也可以由集成算法来解决,
~~~     在随机森林中,特征和样本会在分枝过程中被随机采样。

~~~     # 如果标签中的某些类占主导地位,决策树学习者会创建偏向主导类的树。
~~~     因此,建议在拟合决策树之前平衡数据集。