通信约束下分布式参数估计的几何下限

@第{Han2018Geometric LB条,title={通信约束下分布式参数估计的几何下界},author={Yanjun Han和Ayfer{\“O}zg{\”u}r和Tsachy Weissman},journal={IEEE信息理论汇刊},年份={2018年},体积={67},页码={8248-8263},网址={https://api.semanticscholar.org/CorpusID:3503348}}
这项工作绕过了以前工作中使用的强大数据处理不等式的需要,并开发了一种几何方法,该方法建立在通信约束的新表示形式之上,使其能够用更简单、更透明的证明来加强和推广现有结果。

询问这篇论文
AI供电

信息约束下的交互式推理

提出了一种新的处理相关性的方法,并建立了一种统一的方法,以在局部差异隐私和通信约束下建立估计和测试的下限,并提供了一个交互有帮助的自然测试问题的示例。

黑板通信协议下分布式估计的Fisher信息

我们考虑分布式网络中学习高维离散分布和结构化(如高斯)分布的问题,其中网络中的每个节点都观察到

交际约束推理与共享随机性的作用

这项工作提出了一种公共接入协议,该协议在分布式测试中优于模拟和传输协议,事实上,它是分布式学习的最佳示例,并考察了共享随机性作为资源的作用。

信息约束下的推理Ⅱ:通信约束与共享随机性

这项工作提出了一种通用的模拟和推断策略,该策略仅使用私有硬币通信协议,并且对于分发学习是样本最优的,并且提出了一种在分发测试中优于模拟和推断的公共硬币协议,并且事实上是样本最优的。

沟通约束下样本的学习分布

我们考虑在分布式网络中学习高维、非参数和结构化(如高斯)分布的问题,其中网络中的每个节点观察一个独立的样本

基于Fisher信息的通信约束下学习分布的下界

我们考虑在分布式网络中学习高维、非参数和结构化(如高斯)分布的问题,其中网络中的每个节点观察一个独立的样本

信息约束下的推理Ⅰ:Chi-Square收缩的下限

在这种信息约束环境下,学习和测试离散分布的样本复杂度的下限来自于当设置信息约束时,样本的观测分布之间的chi-square距离收缩的特征。

量化样本Fisher信息的几何特征及其在分布统计估计中的应用

从X的多个量化样本估计$θ$的最小最大风险的下限是在分布式环境中发现的,其中样本分布在多个节点上,每个节点有k位的总预算来将其样本传递给集中式估计器。

通过压缩实现隐私放大:在分布式平均值估计中实现最佳隐私-准确性-通信权衡

研究了联合通信和$(varepsilon,delta)$-差分隐私(DP)约束下平均值和频率估计(分别为FL和FA的规范模型)的最佳精度。

异质性和通信约束下离散分布的协作学习

本文提出了一种新的两阶段方法SHIFT,该方法表明SHIFT在异质性模型和通信约束下是极小极大最优的,并在文本域中使用合成数据和文本频率估计提供了实验结果,验证了其有效性。
...

基于分布式数据处理不等式的统计估计问题的通信下界

作为常用数据处理不等式的推广,证明了一个分布式数据处理不等式,该不等式可能对其他问题具有独立的意义。

分布式仿真与分布式推理

一种公共-协同通信协议,使用O(k/\sqrt{2^\ell}\epsilon^2)样本执行身份测试,理论上在常数因子下是样本最优的,这在实践中很容易实现。

分布式统计估计的通信代价与维数

据推测,该协议所证明的通信和平方损失之间的折衷在对数因子以下基本上是最优的,并且在一般设置中启动了强下界。

通信-离散分布的高效分布式学习

这项工作设计了分布式学习算法,与原始算法相比,该算法实现了更好的通信保证,并在几种分布式学习机制中获得了严格的上下限。

分散估计中Bayes风险的信息论下限

我们导出了分散估计中Bayes风险的下界,其中估计量不能直接访问随机参数上有条件生成的随机样本

某些二元序列的熵定理及其应用Ⅱ

建立了一个关于二进制随机变量序列熵的定理,并将该结果应用于多用户通信中三个问题的求解。

正则估计极限分布的一个特征

我们考虑一系列带有k维参数的一般估计问题中的估计序列。在某些非常一般的条件下,我们证明了极限分布

概率与计算:随机算法与概率分析

前言1。事件和概率2。离散随机变量和期望3。力矩和偏差4。切尔诺夫边界5。球、箱子和随机图6。概率方法7。马尔可夫

通信约束下稀疏分布估计中维度依赖的打破

提出了一种新的基于树的估计方案,并将实现无因次收敛所需的最小样本量进一步减少到n^*(s,d,b)=\tilde{O}\left({s^2\log^2d}/{2^b}\right)$。
...