2.8. 密度估计(Density Estimation)

2.8. 密度估计(Density Estimation)

密度估计在无监督学习、特征工程和数据建模之间徘徊。一些最流行和最有用的密度估计技术是混合模型,如高斯混合(sklearn.mixture.GaussianMixture),和基于邻居(neighbor-based)的方法,如核密度估计(sklearn.neighbors.KernelDensity)。在 聚类 这一小节,更充分地讨论了高斯混合方法,因为该技术作为一种无监督的聚类方案也是有用的。

密度估计是一个非常简单的概念,大多数人已经熟悉一种常见的密度估计技术:直方图。

2.8.1. 密度估计:直方图

柱状图是一种简单的数据可视化,其中定义了箱子(bins),并统计了每个箱子(bins)中的数据点数量。下图左上角的面板中显示了直方图的示例:

hist_to_kde

然而,直方图的一个主要问题是,分箱(binning)的选择会对结果的可视化产生不成比例的影响。考虑上图的右上角面板。它在相同的数据上显示了箱子(bin)右移后的柱状图。两种可视化的结果看起来完全不同,可能导致对数据的不同解释。

直观地说,我们也可以把直方图看作一堆块,每个点一个块。通过将块堆叠在适当的网格空间中,我们可以恢复直方图。但是,如果我们不是把块堆在一个规则的网格上,而是把每个块放在它所代表的点的中心,然后把每个位置的总高度相加起来会怎么样呢?这个想法导致了左下角的可视化图的现象。它可能没有直方图那么清晰,但数据驱动块位置的事实意味着它是底层数据更好的表示。

这种可视化是核密度估计的一个例子,在本例中是一个顶帽核(top-hat kernel,即每个点上的一个正方形块)。我们可以使用更平滑的核(smoother kernel)来恢复更平滑的分布。右下角的图显示了一个高斯核密度估计(Gaussian kernel density estimate),其中每个点对总体分布贡献一个高斯曲线(Gaussian curve)。其结果是从数据中导出的平滑密度估计,并作为一个强大的非参数点分布模型发挥作用。

2.8.2. 核密度估计(Kernel Density Estimation)

scikit-learn中的核密度估计是在 sklearn.neighbors.KernelDensity估计器中实现的,该估计器使用Ball树或KD树进行有效查询(有关这些问题的讨论,请参见 最近邻 )。尽管上面的例子为了简单起见使用了1D数据集,但是核密度估计可以在任维度的数据上执行,尽管实际上维度灾难会导致其在高维度上的性能下降。

在下图中,从双峰分布(bimodal distribution)中提取100个点,并显示三种不同内核的内核密度估计值:

kde_1d_distribution

从上图中清楚地展示了内核形状如何影响结果分布的平滑度。scikit-learn核密度估计器使用方法如下:

>>> from sklearn.neighbors import KernelDensity
>>> import numpy as np
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> kde = KernelDensity(kernel='gaussian', bandwidth=0.2).fit(X)
>>> kde.score_samples(X)
array([-0.41075698, -0.41075698, -0.41076071, -0.41075698, -0.41075698,
       -0.41076071])

这里我们使用了 kernel='gaussian',如上所示。数学上,核是由带宽(bandwidth)参数h控制的正函数K(x;h)。给定此核形式,在一组点x_i; i=1\cdots Ny处的密度估计由以下公式给出:
\rho_K(y) = \sum_{i=1}^{N} K((y – x_i) / h)
这里的带宽(bandwidth )用作平滑参数,控制结果中偏差(bias)和方差(variance)之间的权衡。大带宽导致非常平滑(即高偏差,high-bias)的密度分布。小带宽导致密度分布不均匀(即高方差,high-variance)。

sklearn.neighbors.KernelDensity实现了几种常见的内核形式,如下图所示:

kde_kernels

这些内核的形式如下:

  • 高斯核 (kernel = 'gaussian')

    K(x; h) \propto \exp(- \frac{x^2}{2h^2} )

  • 顶帽内核 (kernel = 'tophat')

    K(x; h) \propto 1 if x < h

  • Epanechnikov 内核 (kernel = 'epanechnikov')

    K(x; h) \propto 1 – \frac{x^2}{h^2}

  • 指数核 (kernel = 'exponential')

    K(x; h) \propto \exp(-x/h)

  • 线性核 (kernel = 'linear')

    K(x; h) \propto 1 – x/h if x < h

  • 余弦核 (kernel = 'cosine')

    K(x; h) \propto \cos(\frac{\pi x}{2h}) if x < h

核密度估计器可以与任何有效的距离度量标准一起使用(有关可用度量标准的列表,请参见sklearn.neighbors.DistanceMetric),尽管仅对欧几里德度量标准的结果进行了适当的标准化。一种特别有用的度量标准是Haversine距离,它测量球体上各点之间的角距离。下面示例中,使用了核密度估计来可视化地理空间数据,南美洲大陆上两个不同物种的观测分布如下:

species_kde

核密度估计的另一个有用的应用是学习数据集的非参数生成模型,以便有效地从该生成模型中绘制新样本。下面是一个使用此过程创建一组新的手写数字的示例,使用在数据的PCA投影上学到的高斯核:

digits_kde

“新”数据由输入数据的线性组合组成,并在给定KDE模型的情况下按概率给出权重。

示例

© 2007 – 2019, scikit-learn 开发人员 (BSD 许可证). 此页显示源码

未经允许不得转载:PythonOK » 2.8. 密度估计(Density Estimation)

赞 (1)