2.1. 高斯混合模型(Gaussian mixture models)

2.1. 高斯混合模型(Gaussian mixture models)

sklearn.mixture是一个让人们可以学习高斯混合模型(支持对角线(diagonal),球面(spherical),平移(tied)和全协方差矩阵(full covariance matrices))的包,它还提供了对混合分布进行抽样,以及从数据估计混合模型的功能。它还提供了一些工具帮助我们确定分量的合适数量。

https://scikit-learn.org/stable/_images/sphx_glr_plot_gmm_pdf_0011.pngF

二元高斯混合模型(Two-component Gaussian mixture model): 数据点,以及模型的等概率平面(equi-probability surfaces)。

高斯混合模型是一种概率模型,它假定所有数据点都是由有限个参数未知的高斯分布的混合产生的。可以认为混合模型是k均值聚类的推广,它包含了关于数据的协方差结构以及潜在高斯分布的中心的信息。

Scikit-learn实现了不同的类来估计高斯混合模型,这些模型对应于不同的估计策略,下面将进行详细介绍。

2.1.1. 高斯混合(Gaussian Mixture)

GaussianMixture对象实现了用于拟合高斯混合模型的期望最大化(expectation-maximization)(EM)算法。它还可以绘制多元模型的置信椭圆体,并计算贝叶斯信息准则以评估数据中的聚类数量。该类对象提供了从训练数据中学习高斯混合模型的GaussianMixture.fit方法。在给定测试数据的情况下,可以使用GaussianMixture.predict方法可以为每个样本分配它可能属于的高斯分布。

GaussianMixture有不同的选项来约束估计出的不同类的协方差:球面(spherical)、对角线(diagonal)、平移(tied)或完全协方差(full covariance)。

https://scikit-learn.org/stable/_images/sphx_glr_plot_gmm_covariances_0011.png

案例:

2.1.1.1. GaussianMixture的优缺点

2.1.1.1.1. 优点

速度: 这是学习混合模型的最快算法
不可知论(Agnostic): 由于此算法仅仅最大化似然函数(likelihood),因此 它不会把均值偏向到0,或使聚类大小偏向于可能适用或者可能不适用的特殊结构。

2.1.1.1.2. 缺点

奇异性(Singularities): 当每个混合模型没有足够多的点时,估算协方差变得困难起来,同时算法会发散并且找具有无穷大似然函数值的解,除非人为地对协方差进行正则化。
分量的数量(Number of components): 这个算法将会总是用所有它能用的分量,所以在没有外部线索的情况下需要留存数据或者用信息理论准则来决定用多少分量。

2.1.1.2. 选择经典高斯混合模型中分量的数量

一种高效的方法是利用BIC(贝叶斯信息准则)来选择高斯混合的分量数。理论上,它仅当在渐进状态(asymptotic regime )下可以恢复正确的分量数(即如果有大量数据可用,并且假设这些数据实际上是一个混合高斯模型独立同分布生成的)。请注意,使用变分贝叶斯高斯混合(Variational Bayesian Gaussian mixture)可避免高斯混合模型中分量数的选择。

https://scikit-learn.org/stable/_images/sphx_glr_plot_gmm_selection_0011.png

案例:

2.1.1.3. 估计算法:期望最大化(EM)

从未标记的数据中学习高斯混合模型的主要困难在于,通常不知道哪个点来自哪个潜在分量(如果可以获取到这些信息,就可以很容易通过相应的数据点,拟合每个独立的高斯分布)。期望最大化(Expectation-maximization) 是一种经过验证的统计算法,可以通过迭代过程解决此问题。首先,假设我们产生了一些随机分量(随机选择数据点的中心做随机分量,数据点的中心可以用k-means算法得到,或者甚至就让在原点周围正态分布的点做随机分量),并且为每个点计算由模型的每个分量生成这个点的概率。然后,调整模型参数以最大化模型生成这些数据点的可能性。重复这个过程就可以保证总会收敛到局部最优解。

2.1.2. 变分贝叶斯高斯混合(Variational Bayesian Gaussian Mixture)

BayesianGaussianMixture实现了具有变分推理算法的高斯混合模型的变体。这个类的API和GaussianMixture是类似的。

2.1.2.1. 估计算法:变分推理

变分推理是期望最大化的扩展,它最大化了模型证据(包括先验条件)的下界而不是数据的可能性。变分方法的原理与期望最大化相同(这两者都是迭代算法,在寻找每个混合产生每个点的概率和根据所分配的点拟合混合模型之间两步交替), 但是变分方法通过整合先验分布信息来增加正则化限制。这避免了期望最大化解决方案中常出现的奇异性,但是也对模型带来了微小的偏差。变分方法计算过程通常明显较慢,但通常不会慢到无法使用。

由于它的贝叶斯特性,变分算法比期望最大化(EM)需要更多的超参数,其中最重要的就是浓度参数weight_concentration_prior。指定一个低浓度先验,将会使模型将大部分的权重放在少数分量上,其余分量的权重则趋近0。而高浓度先验将使混合模型中的大部分分量都有一定的权重。

BayesianGaussianMixture的参数实现提出了两种先验权重分布:一种是利用狄利克雷分布(Dirichlet distribution)的有限混合模型,另一种是利用狄利克雷过程(Dirichlet Process)的无限混合模型。在实际应用上,狄利克雷过程推理算法是近似的,并且使用具有固定最大分量数的截尾分布(称之为Stick-breaking representation)。使用的分量数实际上几乎总是取决于数据。

下图比较了权重浓度先验的不同类型(参数weight_concentration_prior_type) 对于不同的权重浓度先验weight_concentration_prior的取值所获得的结果。在这里,我们可以看到weight_concentration_prior参数的值对获得的有效成分的有效的激活分量数(即权重较大的分量的数量)有很大影响。我们也能注意到当先验是‘dirichlet_distribution’ 类型时,大的浓度权重先验会导致更均匀的权重,然而‘dirichlet_process’类型(默认类型)却不是这样。

plot_bgmm plot_dpgmm

下面的例子比较了分量数目固定的高斯混合模型与带有狄利克雷过程先验(Dirichlet process prior)的变分高斯混合模型。这里,使用5个分量的典型高斯混合模型在由2个聚类组成的数据集上进行拟合。我们可以看到,具有狄利克雷过程先验的变分高斯混合模型可以将自身限制在 2 个分量,而高斯混合必须按照用户事先设置的固定数量的分量来拟合数据。在例子中,用户设置了 n_components=5,这不符合该数据集的真正的生成分布(generative distribution)。注意到只有非常少量的观测,带有狄利克雷过程先验的变分高斯混合模型可以采取保守的立场,并且只拟合一个分量。

https://scikit-learn.org/stable/_images/sphx_glr_plot_gmm_0011.png

在下图,我们拟合了没有很好被高斯混合描述的数据集。调整BayesianGaussianMixture的参数weight_concentration_prior用于控制拟合此数据的分量数。我们还在最后两个图上展示了从两个混合模型产生的随机抽样。

https://scikit-learn.org/stable/_images/sphx_glr_plot_gmm_sin_0011.png

案例:

2.1.2.2.变分推理BayesianGaussianMixture的优缺点

2.1.2.2.1. 优点

自动选择: weight_concentration_prior足够小以及n_components比模型实际需要的更大时,变分贝叶斯混合模型有一个天生的趋势就是让一些混合权重值趋近0。这让模型可以自动选择合适的有效分量数。这仅仅需要提供分量的数量上限。但是请注意,“理想”的激活分量数只在应用场景中比较明确,在数据挖掘参数设置中通常并不明确。
对参数的数量不敏感: 在有限模型中,总是用尽可以用的分量,因而将为不同数量的components产生不同的解。与上述有限模型不同,带有狄利克雷过程先验的变分推理(weight_concentration_prior_type='dirichlet_process')在参数变化的时候结果并不会改变太多,这使之更稳定和需要更少的调优。
正则化: 由于结合了先验信息,变分的解比期望最大化(EM)的解具有更少的病理特征(pathological special cases)。

2.1.2.2.2. 缺点

速度: 变分推理所需要的额外参数化使推理速度变慢,尽管并没有慢很多。
超参数: 这个算法需要一个额外的可能需要通过交叉验证进行实验调优的超参数。
有偏的: 在推理算法中存在许多隐含的偏差(如果用到狄利克雷过程也会有偏差),每当这些偏差和数据之间不匹配时,用有限模型可能可以拟合更好的模型。

2.1.2.3. 狄利克雷过程(The Dirichlet Process)

我们在这里描述了关于狄利克雷过程混合的变分推理算法。狄利克雷过程是在具有无限大,无限制的分区数的聚类上的先验概率分布。相比于有限高斯混合模型,变分技术让我们在推理时间几乎没有惩罚的情况下把先验结构纳入到高斯混合模型。

一个重要的问题是狄利克雷过程是如何实现用无限的,无限制的聚类数,并且结果仍然是一致的。本文档不做出完整的解释,但是您可以看这里折棍过程(stick breaking process)来帮助你理解它。折棍过程是狄利克雷过程的衍生。我们每次从一个单位长度的棍子(stick)开始,且每一步都折断剩下的一部分。每次,我们把每个棍子(stick)的长度联想成落入一组混合的点的比例。最后,为了表示无限混合,我们联想成最后每个棍子(stick)的剩下的部分到没有落入其他组的点的比例。每段的长度是随机变量,概率与浓度参数成比例。较小的浓度值将单位长度分成较大的棍子(stick)段(即定义更集中的分布)。较高的浓度值将生成更小的stick段(即增加非零权重的分量数)。

狄利克雷过程的变分推理技术仍然可以对此无限混合模型进行有限近似,但是不必先验地指定要使用的分量数,只要指定 浓度参数和一个关于混合分量的数量的上界就可以了。这个上界,假定它比真正的分量数要高一点,仅会影响算法复杂度,而不会影响算法实际用到的分量的真实数量。

©2007-2019,scikit-learn开发人员(BSD许可证)。 显示此页面源码

未经允许不得转载:PythonOK » 2.1. 高斯混合模型(Gaussian mixture models)

赞 (0)