Path: blob/master/site/zh-cn/probability/examples/Linear_Mixed_Effects_Models.ipynb
25118 views
Copyright 2018 The TensorFlow Probability Authors.
Licensed under the Apache License, Version 2.0 (the "License");
线性混合效应模型是一种用于对结构化线性关系进行建模的简单方式(Harville,1997 年;Laird 和 Ware,1982 年)。每个数据点都包含不同类型的输入(分类为多个组)和实值输出。线性混合效应模型是一种分层模型:它在各个组之间共享统计强度,以便改善对任何单个数据点的推断。
在本教程中,我们以 TensorFlow Probability 中的真实示例来演示线性混合效应模型。我们将使用 JointDistributionCoroutine 和 Markov Chain Monte Carlo (tfp.mcmc
) 模块。
依赖项和前提条件
加快速度!
在深入探究之前,请确保我们在此演示中使用 GPU。
为此,请选择“Runtime”->“Change runtime type”->“Hardware accelerator”->“GPU”。
以下代码段将验证我们是否有权访问 GPU。
注:如果由于某种原因无法访问 GPU,此 Colab 将仍然有效。(但训练将花费更长时间。)
数据
我们使用来自热门的 R 语言 lme4
软件包(Bates 等人,2015 年)中的 InstEval
数据集。它是一个课程及其评估评分的数据集。每门课程都包含元数据,例如 students
、instructors
和 departments
,而关注的响应变量是评估评分。
加载并预处理数据集。我们保留 20% 的数据,以便在未见过的数据点上评估拟合的模型。下面我们来呈现前几行。
我们根据输入的 features
字典和对应于评分的 labels
输出来设置数据集。每个特征被编码为一个整数,每个标签(评估评分)被编码为一个浮点数。
模型
典型的线性模型假定拥有独立性,其中的任何一对数据点都具有恒定的线性关系。在 InstEval
数据集中,观测值成组出现,每组都可能具有不同的斜率和截距。线性混合效应模型(也称为分层线性模型或多级线性模型)会捕获这种现象(Gelman 和 Hill,2006 年)。
这种现象的示例包括:
学生。来自学生的观测值不是独立的:有些学生可能会系统地给出较低(或较高)的演讲评分。
讲师。来自讲师的观测值不是独立的:我们预期能力出众的教师通常会获得良好的评分,而水平不足的教师通常会获得较差的评分。
院系。来自院系的观测值不是独立的:某些院系可能通常具有枯燥的资料或更严格的等级,因此其评分低于其他院系。
要捕获这种现象,回想一下,对于一个具有 个特征 和 个标签 的数据集,线性回归假定模型
其中包含斜率向量 、截距 和随机噪声 。我们说 和 是“固定效应”:它们是在数据点 群体中保持不变的效应。作为一种似然,此方程的等价形式为 。为了找到拟合数据的 和 的点估计值,可在推断过程中最大化这种似然。
线性混合效应模型将线性回归扩展为
其中包含斜率向量 、截距 和随机噪声 。此外,还有一个 项,其中 是一个特征矩阵,而 是一个随机斜率的向量; 呈正态分布,其方差分量参数为 。 是根据新的 矩阵 和 矩阵 对原始的 特征矩阵进行分区而形成的,其中 :通过这种分区,我们可以单独使用固定效应 和隐变量 对特征分别建模。
我们说隐变量 是“随机效应”:它们是在整个群体中不断变化的效应(尽管它们在子群体中可能是不变的)。特别是,由于随机效应 的平均值为 0,因此数据标签的平均值由 捕获。随机效应分量 捕获数据中的变化:例如,“讲师 #54 的评分比平均值高 1.4 分”。
在本教程中,我们假定以下效应:
固定效应:
service
。service
是一个二进制协变量,对应于课程是否属于讲师的主要院系。无论我们收集多少其他数据,它的值只能为 和 。随机效应:
students
、instructors
和departments
。在从课程评估评分的群体中获得更多观测值的情况下,我们可以关注新的学生、教师或院系。
在使用 R 语言编写的 lme4 软件包(Bates 等人,2015 年)的语法中,可以将此模型概括为
其中 x
表示固定效应,(1|x)
表示 x
的随机效应,而 1
表示截距项。
我们在下面将此模型实现为 JointDistribution。为了更好地支持参数跟踪(例如,我们要跟踪 model.trainable_variables
中的所有tf.Variable
),我们将模型模板实现为 tf.Module
。
作为一种概率计算图程序,我们还可以根据计算图来呈现模型的结构。此计算图对程序中随机变量之间的数据流进行编码,从而在计算图模型方面明确它们之间的关系(Jordan,2003 年)。
作为一种统计工具,我们可以查看计算图来更好地了解情况,例如,intercept
和 effect_service
是有条件依赖的给定 ratings
;如果编写的程序包含类、跨模块的交叉引用和/或子例程,则很难从源代码中看到这一点。作为一种计算工具,我们可能还会注意到隐变量通过 tf.gather
运算流入 ratings
变量。如果为 Tensor
建立索引需要大量资源,这可能是某些硬件加速器的瓶颈;通过呈现计算图,可让这一点显而易见。
参数估计
给定数据后,推断的目标是拟合模型的固定效应斜率 、截距 和方差分量参数 。最大似然原理将此任务公式化为
在本教程中,我们使用蒙特卡洛 EM 算法来最大化此边缘密度(Dempster 等人,1977 年;Wei 和 Tanner,1990 年)。¹ 我们执行马尔可夫链蒙特卡洛来计算条件似然相对于随机效应的期望值(“E 步骤”),随后我们执行梯度下降来最大化相对于参数的期望值(“M 步骤”):
对于 E 步骤,我们设置汉密尔顿蒙特卡洛 (HMC)。它需要一个当前状态(学生、讲师和院系效应)并返回一个新状态。我们将新状态分配给将表示 HMC 链的状态的 TensorFlow 变量。
对于 M 步骤,我们使用 HMC 的后验样本来计算边缘似然直到一个常量的无偏估计。随后,我们应用其相对于所关注参数的梯度。这会在边缘似然上产生无偏的随机下降步骤。我们使用 Adam TensorFlow 优化器来实现它,并最小化边缘的负值。
我们执行一个预热阶段,此阶段会运行一个 MCMC 链来进行多次迭代,以便在后验概率质量范围内初始化训练。随后,我们运行一个训练循环。此循环会联合运行 E 步骤和 M 步骤,并在训练过程中记录值。
您还可以将预热 for 循环写入 tf.while_loop
,并将训练步骤写入 tf.scan
或 tf.while_loop
,以实现更快的推断。例如:
上面,我们在检测到收敛阈值后才运行算法。为了检验训练是否合理,我们验证损失函数确实在训练迭代中趋于收敛。
此外,我们还使用了轨迹图,它可以显示马尔可夫链蒙特卡洛算法跨特定隐维度的轨迹。在下面我们可以看到,特定讲师效应确实有意义地从其初始状态转变并探索状态空间。轨迹图还表明,不同讲师的效应有所不同,但具有相似的混合行为。
评论
在上面,我们拟合了模型。现在,我们使用数据来评判其拟合度,这让我们可以探索并更好地理解该模型。其中一种技术是残差图,它为每个数据点绘制了模型预测值与基准真相之间的差异。如果模型正确,则它们的差异应当呈标准正态分布;图中与此模式的任何偏差都表明模型不拟合。
我们通过首先在评分上形成后验预测分布来构建残差图,这种分布会将随机效应上的先验分布替换为其后验给定训练数据。特别是,我们向前运行模型,并利用其推断的后验均值来截断它对先验随机效应的依赖。²
从视觉上看,残差看起来有点呈标准正态分布。但是,拟合并不完美:尾部的概率质量大于正态分布,这表明模型可能会通过放宽正态性假设来提高其拟合度。
特别是,尽管在 InstEval
数据集中使用正态分布对评分建模是最常见的做法,但仔细观察数据可以发现,课程评估评分实际上是从 1 到 5 的序数值。这表明,我们应当使用有序分布,或者如果我们有足够的数据来抛弃相对排序,甚至应当使用分类分布。只需要对上述模型的一行进行更改;相同的推断代码也适用。
为了探索该模型如何进行各个预测,我们查看学生、讲师和院系的效应直方图。这让我们可以了解数据点的特征向量中的各个元素如何影响结果。
不出所料,我们在下面看到,每个学生对讲师的评估评分通常没有什么影响。有趣的是,我们看到讲师所属的院系具有很大的影响。
脚注
¹ 线性混合效应模型是一种我们能够以分析方式计算其边缘密度的特例。在本教程中,我们将演示蒙特卡洛 EM,它更容易应用于非分析边缘密度,例如,在将似然扩展为“分类”而不是“正态”时。
² 为简单起见,我们仅使用模型的一次前向传递来形成预测分布的均值。这是通过对后验均值进行条件处理来实现的,并且对线性混合效应模型有效。但是,这在一般情况下是无效的:后验预测分布的均值通常难以处理,并且需要在给定后验样本的情况下,在模型的多个前向传递之间取经验均值。
致谢
本教程最初用 Edward 1.0编写(源代码)。我们在此向编写和修订该版本的所有贡献者表示感谢。
参考文献
Douglas Bates and Martin Machler and Ben Bolker and Steve Walker. Fitting Linear Mixed-Effects Models Using lme4. Journal of Statistical Software, 67(1):1-48, 2015.
Arthur P. Dempster, Nan M. Laird, and Donald B. Rubin. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, Series B (Methodological), 1-38, 1977.
Andrew Gelman and Jennifer Hill. Data analysis using regression and multilevel/hierarchical models. Cambridge University Press, 2006.
David A. Harville. Maximum likelihood approaches to variance component estimation and to related problems. Journal of the American Statistical Association, 72(358):320-338, 1977.
Michael I. Jordan. An Introduction to Graphical Models. Technical Report, 2003.
Nan M. Laird and James Ware. Random-effects models for longitudinal data. Biometrics, 963-974, 1982.
Greg Wei and Martin A. Tanner. A Monte Carlo implementation of the EM algorithm and the poor man's data augmentation algorithms. Journal of the American Statistical Association, 699-704, 1990.