一文详解集成学习算法原理

发布于 2024-12-20 10:42
浏览
0收藏

一、集成学习概述

        集成学习的核心思想在于“三个臭皮匠,顶个诸葛亮”,即通过结合多个相对简单的学习器(也被称为基学习器),使其协同工作,最终达到比单个学习器更好的预测效果。它假设基学习器之间存在一定的差异性,并且能够通过合适的集成策略将这些差异转化为优势,减少模型的偏差和方差,进而提升整体的准确性和稳定性。

二、Bagging(Bootstrap Aggregating,自助聚集)

(一)基本原理

Bagging 的操作过程可以分为三步:

  1. 自助采样:从原始训练数据集 中有放回地进行抽样,以此构建多个不同的子数据集 (),每个子数据集的样本数量通常和原始数据集一样大。由于是有放回抽样,所以有些样本可能会在同一个子数据集中多次出现,而有些样本可能不会被抽到。例如,对于一个含有 个样本的原始数据集,每次抽样都是从这 个样本中随机抽取一个,重复 次来构成一个子数据集,这样经过 次抽样,就得到了
  2. 基学习器训练:基于每个子数据集 分别独立地训练一个基学习器 。这里的基学习器可以是决策树、神经网络等常见的机器学习模型。由于各个子数据集之间存在差异,所以训练出来的基学习器也会各有不同,它们从不同角度对数据中的模式进行学习和捕捉。
  3. 集成预测:在预测阶段,对于分类任务,通常采用简单投票法,也就是统计各个基学习器的预测类别,选择出现次数最多的类别作为最终的预测结果;对于回归任务,则采用平均法,即将各个基学习器的预测值进行平均,得到最终的预测值。

(二)理论优势分析

        从偏差-方差分解的角度来看,Bagging 主要有助于降低模型的方差。因为每个基学习器都是基于不同的子数据集训练出来的,它们的波动情况(方差)会有所不同,通过集成平均或者投票的方式,可以使得整体模型的方差变小,从而提高模型的稳定性,减少过拟合的风险,尤其适用于那些本身方差较大、容易过拟合的基学习器,比如深度较深的决策树。

(三)代表算法——随机森林(Random Forest)

        随机森林是 Bagging 最具代表性的应用,它以决策树作为基学习器。除了遵循 Bagging 的基本流程外,在训练每棵决策树时,还额外引入了特征随机选择的机制。即在节点分裂时,并不是从所有特征中选择最优特征来分裂,而是从一个随机子集(通常是特征总量的平方根数量的特征子集)中选择,这进一步增加了基学习器之间的差异性,使得随机森林在处理高维数据时能够筛选出更重要的特征,同时也提升了模型的泛化能力,在众多领域如数据挖掘、图像识别、自然语言处理等都有着广泛的应用。

三、Boosting

(一)基本原理

Boosting 是一种迭代式的集成学习方法,它按顺序依次训练基学习器,其核心步骤如下:

一文详解集成学习算法原理-AI.x社区

(二)理论优势分析

        Boosting 方法着重于降低模型的偏差。它通过不断地调整样本权重,迫使后续的基学习器去关注那些难以被准确分类或者预测的样本,逐步修正前面学习器的错误,使得整个集成模型能够更精准地拟合训练数据,从而降低偏差,提高模型的准确性。

(三)代表算法

  1. AdaBoost(Adaptive Boosting,自适应提升):它是 Boosting 算法家族中的经典代表,在每一轮迭代中,根据基学习器的误差率自适应地调整样本权重以及基学习器自身的权重。具体来说,误差率小的基学习器会被赋予较大的权重,在最终的集成中起到更重要的作用;而误差率大的基学习器权重则较小。通过这种方式,AdaBoost 可以有效地将多个弱分类器(准确率仅略高于随机猜测的分类器)组合成一个强分类器,在二分类以及多分类问题中都有着良好的应用效果,例如在文本分类领域,能够很好地区分不同主题的文本。
  2. Gradient Boosting(梯度提升):它的核心在于利用损失函数的负梯度来拟合新的基学习器。每一次迭代都是在尝试减少之前模型的整体损失,通过计算当前模型在训练数据上的损失函数的梯度(反映了损失函数下降最快的方向),然后基于这个负梯度方向去训练新的基学习器,使得新的基学习器能够弥补之前模型的不足,朝着使损失更小的方向改进。在回归和分类任务中都展现出了卓越的性能,衍生出了诸如 XGBoost(eXtreme Gradient Boosting)、LightGBM 等高效的算法,这些算法在数据挖掘竞赛、工业界的大数据分析等场景中被广泛应用,得益于其高效的计算性能、良好的可扩展性以及优秀的预测准确率。

四、Stacking(堆叠)

(一)基本原理

Stacking 的操作流程相对复杂一些,主要分为以下几个阶段:

  1. 数据划分:将原始训练数据集 划分为两部分,一部分作为训练集 ,用于训练第一层的多个基学习器;另一部分作为验证集 ,用于后续生成新的特征以及训练第二层的元学习器。
  2. 训练第一层基学习器:选择多种不同类型的机器学习算法作为第一层的基学习器(例如决策树、支持向量机、神经网络等),分别利用训练集 对它们进行训练,得到 个基学习器 。
  3. 生成新特征:将训练好的基学习器应用到验证集 上,每个基学习器都会对验证集中的样本产生一个预测结果,将这些预测结果按照一定的方式进行整理,就可以构建出一个新的数据集 ,其特征维度就是基学习器的数量,每个样本对应的特征值就是各个基学习器对该样本的预测值。这个新数据集就相当于把各个基学习器对数据的理解和判断整合到了一起,蕴含了不同角度的信息。
  4. 训练第二层元学习器:利用新生成的数据集
  5. 预测阶段:对于新的测试数据,首先将其输入到第一层的各个基学习器中得到预测结果,然后将这些预测结果组成新的特征向量,再将这个特征向量输入到第二层的元学习器中,最终得到整个集成模型的预测结果。

(二)理论优势分析

        Stacking 的优势在于它能够融合多种不同类型学习器的特点和优势。不同的基学习器可能擅长捕捉数据中不同方面的模式和规律,通过将它们的预测结果作为新特征,再让元学习器进行综合学习,可以充分利用各个学习器的长处,挖掘出更复杂、更准确的预测关系,理论上有可能获得比单一学习器或者简单集成方式更好的性能表现。

(三)应用场景与局限性

        Stacking 常用于那些对预测准确率要求极高且数据特征较为复杂、难以用单一模型有效处理的任务场景,比如复杂的金融风险预测,需要综合考虑多个因素且不同模型可能对不同因素的敏感性不同;还有医学疾病诊断领域,要综合多种检测指标以及不同模型对病情的判断等。然而,它的缺点也比较明显,训练过程相对繁琐,需要训练多个基学习器以及额外的元学习器,计算成本较高,而且如果基学习器选择不当或者数据划分不合理等,可能无法充分发挥其优势,甚至可能导致性能不如一些简单的集成方法。

        总之,集成学习的这些算法在理论基础和操作方式上各有千秋,它们在不同的应用场景下能够根据数据特点发挥独特的作用,为解决复杂的机器学习问题提供了强有力的手段,是广大机器学习从业者和研究者值得深入研究和应用的重要技术方向。

本文转载自​宝宝数模AI​,作者: BBSM ​​

收藏
回复
举报
回复
相关推荐