一、定义

1、集成学习:集成学习的核心思想就是构建并结合多个学习器提升性能。

将多个分类方法聚集在一起,以提高分类准确性,可以是不同或相同的算法(异质集成/同质集成),最后通过某种方法把学习结果集成起来。是一种机器学习范式,使用多个学习器来解决同一个问题。

2、集成学习两大类:

(1)个体学习器之间存在强依赖关系,必须串行生成的序列化方法,如,Boosting;

(2)个体学习器之间不存在强依赖关系,可同时生成并行化方法,如,Bagging和随机森林。

二、Boosting

1、简述:Boosting是一种可将弱学习器提升为强学习器的算法。(强学习算法:准确率很高的学习算法;弱学习算法:准确率不高,仅比随机猜测略好。)

2、算法机制:从初始训练集训练一个基学习器——根据基学习器的表现对训练样本分布进行调整——基于调整后的分布训练下一个基学习器——直至学习器数目达到事先设定的阈值T——将这T个基学习器加权结合,让分类效果差的基学习器具有较小的权值

【注】:

①Boosting中所有的弱学习器可以是不同类的分类器。

②每一轮改变训练数据权重或概率分布的方式:通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样本的权值,这样误分的样本在后续会受到更多关注。

③通过加法模型将弱分类器进行线性组合。

3、理论来源:基于PAC(Probably Approximately Correct)学习模型的一种提高。

PAC:Probably Approximate Correct直译过来就是“可能近似正确”,这里面用了两个描述”正确”的词,可能和近似。 “近似”是在取值上,只要和真实值的偏差小于一个足够小的值就认为”近似正确”;“可能”是在概率上,即只要“近似正确”的概率足够大就认为“可能近似正确”。 

https://blog.csdn.net/qq_34662278/article/details/83961427

4、代表算法:AdaBoost,“可调节提升方法” (Adaptive Boosting)

(1)算法核心思想:

①迭代。每轮迭代在训练集上产生新分类器,使用该分类器对所有样本分类,以评估每个样本的重要性(用于后面赋权值)。

②样本权重更新。初始为等概率分布,因此每个样本分布的初始权值为1/N,每次循环后,提高错误样本的分布概率,使错分样本占比增大,下一次循环弱学习器着重判断,同时正确分类的样本权重降低,其“抽中”的概率会减小。

③弱学习器的权重。准确率越高的弱学习器权值越高。当循环到一定次数或某度量标准符合要求时,停止循环,然后将弱学习器按其相应的权重加权组成强学习器。

(2)基本思路:

①训练一系列弱学习器h1,h2,h3,...,hT。

②训练过程中注重那些分类错误的样本。

③把训练出来的一系列弱学习器组合起来,每个弱学习器hT(x)都有一个相应的权重\alpha _{t}

H(x)=sign(\sum_{t=1}^{T}\alpha _{t}h_{t}(x)))

(3)AdaBoost的权重更新计算:

①基学习器权值:\alpha _{t}=\frac{1}{2}\ln(\frac{1-\epsilon _{t}}{\epsilon _{t}})

②训练样本权值:

错误分类样本的权值更新:W_{t+1}(i)=\frac{W_{t}(i)}{2\epsilon _t}

正确分类样本的权值更新:W_{t+1}(i)=\frac{W_{t}(i)}{2(1-\epsilon _t)}

(4)AdaBoost总结:

①核心思想是关注被错分的样本,注重性能好的弱分类器。

②样本权重间接影响分类器权重。

③阈值的选取规则是选取使分类错误率\epsilon _{t}最小的阈值。

不改变训练数据,而不断改变训练数据权值分布,使训练数据在基本分类器中起不同作用。

⑤利用基本分类器的线性组合构建最终分类器。

 三、Bagging与随机森林

(一)Bagging(Bootstrap Aggregating):

Bagging是一种并行式集成学习方法,可用于二分类、多分类、回归等任务,是有放回抽样,得到统计量的分布及置信区间。

1、基本流程:对一个包含m个样本的数据集,又放回地进行m次随机采样,得到具有m个样本的采样集——照这样取T个这样的采样集——每个采样集训练一个基学习器——对学习器进行组合(组合时,若是分类任务,则使用简单投票法,若是回归任务,则使用简单平均法)

【注】:

①算法思想是让学习算法训练多轮,每轮的训练集由从初始地训练集中随机取出的m个训练样本组成,某些个初始样本在某论训练集中可以出现多次/不出现。

②基于每个训练集训练一个“专属”基学习器,再将这些基学习器进行加权组合。

③Bagging通过在不同数据集上训练模型,降低分类器的方差(可以理解为数据集改动对模型性能的影响),防止过拟合。

2、基本性质及意义

①Bagging通过结合几个模型降低泛化误差:分别训练几个不同的模型,然后让所有模型表决测试样例的输出,这称为模型平均,采用这种策略的技术被称为集成方法。

②通过在构建模型的过程中引入随机性来减少基学习器的方差。

③因其可以减小过拟合,在强分类器和复杂模型上使用时表现得很好。

④采用有放回的抽样,在数据集比较小的时候可以使数据集样本“变多”,因为每次训练都需要重新采样,但由于有的样本可能会被选取多次,相当于加大了权重,改变了原本的数据分布。

3、Boosting与Bagging的比较

①样本权重:Boosting有权重,是根据错误率进行调整更新的;而Bagging使用均匀取样,每个样例的权重相等(相当于没有权重)。只能顺序生成 可以并行生成。

②样本选择:Boosting每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化;Bagging的训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

③预测函数:Boosting的弱分类器都有各自的权重,分类误差小的分类器权重更大;Bagging所有预测函数的权重相等。

④计算方式:Boosting的权重只能顺序计算生成;Bagging的权重可以并行计算生成。

⑤方差、偏差比较:Boosting基于偏差的减少;Bagging基于方差的减少。

(二)随机森林:

1、算法概述:对基学习器的每个结点,先从该节点的属性集合中随机选择一个包含K个属性的子集,然后从这个子集中选择一个最优属性用于划分,应用于结点进行分裂【K控制了随机性的引入程度,K越大,随机性越大】。随机森林的基本单元是决策树

2、每棵树的生成规则:

①Bootstrap抽取样本:如果训练集大小为N,对于每棵树而言,随机且有放回地从训练集中抽取N个训练样本,作为该树的训练集。

②选属性子集:若每个样本的特征维度为M,指定一个m<<M,随机从M个特征中选取m个特征子集,树分裂时,从这m个特征中选择最优的。(m是随机森林唯一参数。)

③努力生长:每棵树都尽可能最大程度生长,且无剪枝过程。

思考:为什么要有放回抽样?若非有放回抽样,则每棵树的训练样本不同,无交集,这样每棵树都是“有偏的”,训练出来差异大(不能有太大差异,因为这些学习器解决的都是同一个问题,但也不能完全没有联系,这样的话学习器差异很大),而随机森林最后分类取决于多棵树(弱分类器)的投票表决,应是“求同”的一个过程,若用完全不同的训练集来训练则对分类结果无帮助。

3、随机森林分类效果(错误率)与两个因素有关:

①森林中任意两棵树的相关性:相关性越高,错误率越大。

②每棵树的分类能力:分类能力越大,错误率越大。

4、袋外错误率:

  • 构建随机森林的关键问题是如何选取最优的m,解决该问题主要依据计算袋外错误率(oob error,out-of-bag error)
  • 可在随机森林生成的过程中对误差建立一个无偏估计,因为构建每棵树时,采用有放回抽样,约1/3的训练实例没有参与第K棵树的生成,它们便是第K棵树的oob样本。这样的采样特点便允许我们进行oob估计:①对每个样本计算它作为oob样本的树对它的分类情况②以简单多数投票作为该样本的分类结果③用误分类个数占样本总数的比例作为随机森林的oob错误率。

5、随机森林的随机性体现在:训练样本选择随机+属性特征选择随机。

 四、多样性增强

常见的增强个体学习器多样性的方法:数据样本扰动、输入属性扰动、输出表示扰动、算法参数扰动。

1、数据样本扰动:通常基于采样法(如Bagging中的自助采样、Adaboost中的序列采样),对“不稳定基学习器”很有效;(对扰动敏感的基学习器:决策树、NN;不敏感的基学习器:SVM、朴素贝叶斯、K近邻、线性学习器)

2、输入属性扰动:不同的“子空间”(即属性子集)提供了观察数据的不同视角,从不同子空间训练的个体学习集必然有所不同。算法从初始属性集中抽取出若干个属性子集,再基于每个属性子集训练一个基学习器。

3、输出表示扰动:对输出表示进行操作以增强多样性。可对训练个样本的类标记稍作变动,如翻转法(flipping output)随机改变一些训练样本的标记等等。

4、算法参数扰动:通过随机设置不同参数,可产生差异较大的个体学习器。

参考:

Bagging和Boosting的区别(面试准备) - Earendil - 博客园

https://blog.csdn.net/fjssharpsword/article/details/61913092

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐