Path: blob/master/site/zh-cn/probability/examples/Probabilistic_PCA.ipynb
25118 views
Copyright 2018 The TensorFlow Probability Authors.
Licensed under the Apache License, Version 2.0 (the "License");
概率主成分分析 (PCA) 是一种降维技术,它在较低维度的隐空间中分析数据(Tipping 和 Bishop,1999 年),通常在数据中缺少值或者进行多维标度时使用。
导入
模型
假设有一个由 个数据点组成的数据集 ,其中每个数据点均为 维,。我们的目标是使用较低维度 (ParseError: KaTeX parse error: Expected 'EOF', got '&' at position 3: K &̲lt; D) 在隐变量 下表示每个 。主轴集 将隐变量与该数据相关联。
具体来说,我们假定每个隐变量为正态分布,
通过投影,生成相应的数据点,
其中,矩阵 称为主轴。在概率 PCA 中,我们通常关注的是估计主轴 和噪声项 。
概率 PCA 概括了经典 PCA。对隐变量进行边缘化处理后,每个数据点的分布为
当噪声的协方差变得无穷小 () 时,经典 PCA 就是概率 PCA 的特例。
我们按如下所述设置模型。在我们的分析中,我们假定 已知,并且不将 点估计为模型参数,而是对其使用先验,以便推断主轴的分布。我们将模型表示为 TFP JointDistribution,具体来说,我们将使用 JointDistributionCoroutineAutoBatched。
数据
我们可以使用模型从联合先验分布中抽样,从而生成数据。
我们呈现数据集。
最大后验概率推断
首先,我们搜索隐变量中尽可能增加后验概率密度的点估计值。这称为最大后验概率 (MAP) 推断,操作方法是计算尽可能增加后验密度 的 和 的值。
我们可以使用该模型为 和 抽取已推断值的数据,并与我们作为条件的实际数据集进行对比。
变分推断
可以使用 MAP 查找后验分布的模式(或其中一种模式),但 MAP 不提供关于该模式的任何其他见解。接下来,我们使用变分推断,在该推断中,使用由 参数化的变分分布 来逼近后验分布 。目的是查找变分参数 ,这些参数会尽可能减少 q 与后验之间的 KL 散度 ,或者相当于尽可能增加证据下限 。
致谢
本教程最初用 Edward 1.0编写(源代码)。我们在此向编写和修订该版本的所有贡献者表示感谢。