摘要
交叉随机效应模型中广义最小二乘(GLS)和吉布斯采样的成本增长速度很容易超过对于N个观察。Ghosh等人(2022年)开发了一种改进算法,将成本降低到在这里,我们将该方法推广到logistic回归的广义线性混合模型。我们在迭代重加权惩罚最小二乘算法中使用反求。具体方法是Schall(1991)提出的一种惩罚型准似然。Schall算法的一个简单版本的成本也将超过因为它需要一个大矩阵的逆矩阵的轨迹。我们以成本近似这个量并证明了这种替换产生的差异是渐近可忽略的。我们的反求算法还以一种类似于Papaspiliopoulos等人(2020)的Gibbs采样器坍塌的方式,一次用一个随机效应来坍塌固定效应。我们使用了一个有助于有效协方差计算的对称算子。我们在Stitch Fix的真实数据集上演示了我们的方法。通过适当考虑交叉随机效应,我们发现朴素逻辑回归可以将抽样方差低估数百倍。
致谢
我们感谢Stitch Fix与我们分享一些数据,特别感谢Bradley Klingenberg和Sven Schmit。这项工作得到了国家科学基金会BIGDATA拨款IIS-1837931的部分支持。
引用
下载引文
斯瓦纳迪普·戈什。
特雷弗·哈斯蒂。
阿特·欧文。
“具有交叉随机效应的可缩放逻辑回归。”
电子。J.统计学家。
16
(2)
4604 - 4635,
2022
https://doi.org/10.1214/22-EJS2047
问询处
收到日期:2021年12月1日;发布日期:2022年
欧几里德项目首次提供:2022年9月21日
数字对象标识符:10.1214/22-EJS2047
关键词:回修,广义线性混合模型,拟似然,Schall算法