基于多重线性松弛的子模函数并行最大化

@第{条Chekuri2018子模块FM,title={通过多重线性松弛法并行实现子模函数最大化},author={Chandra Chekuri和Kent Quanrud},日志={ArXiv},年份={2018年},体积={abs/1807.08678},url={https://api.semanticscholar.org/CorpusID:51712417}}
Balkanski和Singer[5]最近开始研究约束子模函数最大化的自适应性(或并行性),并研究了基数约束的设置。Balkanski、Rubinstein和Singer[6]以及Ene和Nguyen[21]最近对该问题的改进,在$O(\log n/\epsilon^2)$轮自适应中产生了接近最优的$(1-1/e-\epsilen)$-近似值。部分出于将这些结果扩展到更一般约束的目的,我们描述了

本文中的数字

询问这篇论文
人工智能驱动

基数约束下非子模函数的并行最大化

基于函数的多级松弛四舍五入,提出了一种扩展并行贪婪算法,用于求解单调归一化集函数在基数约束下的多重线性松弛。

拟阵内外子模集函数最大化的并行贪婪算法

提出了一种通用策略,用于并行化经过充分研究的贪婪算法,并使用它在O(log2(n)/2)轮自适应中获得随机(1/2−?)近似。

具有拟阵和装箱约束的并行子模最大化

获得了具有拟阵约束的子模最大化的第一个低自适应算法,以及具有包装约束的非单调子模最大化的第一个并行算法。

基于DR-子模函数新界的约束子模最大化

提出了一个保证$0.401-近似的求解器,它大大缩小了最著名的求解器和不可逼近结果之间的差距,并且基于一个新的边界,该边界可能会在相关问题中找到许多其他应用,并且是进一步改进的关键组件。

子模p-超可分最大化的快速并行算法

主要贡献是算法LS+GS,它是现有LS+PGB算法的一个细粒度版本,设计用于当p为超可分时的SMCC实例,它实现了预期的$(1-\frac{1}{e-\varepsilon)$-近似解,$O(\frac}{\varepsilon^2}\log(pk))$自适应性独立于$n$。

非单调子模块最大化的实用并行算法

本文研究了背包约束下的非单调子模最大化问题,提出了在$mathcal{O}(logn)$自适应复杂度下实现$(8+epsilon)$-近似的第一个组合算法,该算法在$logn$因子范围内是最优的。

具有近似最优适应性和查询复杂度的非单调子模块最大化

结果表明,给出了最大化非单调子模函数的第一恒因子近似算法,该算法受基数约束,以自适应轮次运行,并使oracle查询符合预期。

流模型中基数和拟阵约束下单调子模函数最大化的逼近性

本文给出了单程流模型中超过$1-\frac{1}{e}$的基数约束和拟阵约束的近似比的第一个下界,并证明了具有近似比的基数约束的任何(随机)流算法都需要$\Omega\left(\frac{n}{K^2}\right)$space表示任何$\varepsilon>0$,其中$K$是输出集的大小限制。

具有近似最优、自适应性和查询复杂性的子模块最大化

一种分布式算法,用于最大化具有基数约束的单调子模函数$k$,该算法实现了$(1-1/e-\varepsilon)$-近似,期望近似保证和查询复杂度是最优的,并且自适应性几乎是最优的。

自适应复杂度接近最优的非单调子模块最大化

这项工作提供了第一个常量近似算法,用于最大化具有基数约束$k$的非单调子模块函数,该函数具有近似最优的自适应复杂性$O(\log(n))$,并且每个元素预期只对函数求值预言器进行两次调用。
...

无损失逼近子模块最大化的并行运行时间指数加速

描述了一种新的方法,该方法产生了一种算法,其近似值在$\mathcal{O}(\logn)$自适应轮次中任意接近最优$1-1/e$保证,该算法以近似质量的任意小损失为代价,实现了子模最大化的并行运行时间的指数加速。

基于多重线性松弛和竞争解决方案的子模函数最大化

提出了一个广泛适用的框架,用于最大化受独立约束的线性函数和子模函数,并证明了即使f是非单调的,竞争解决方案也是对分数解进行取整的有效方法。

近线性时间下具有近最优逼近和自适应性的子模最大化

这项工作给出了第一个使用$O(ln{n}/ep-silon^2)$轮自适应性实现近似最优$1-1/e-\epsilon$近似的算法,该算法的函数求值次数和额外运行时间为n。

具有最佳逼近性、自适应性和查询复杂性的子模块最大化

一种分布式算法,用于最大化具有基数约束的单调子模函数$k$,该算法实现了$(1-1/e-\varepsilon)$-近似,期望近似保证和查询复杂度是最优的,并且自适应性几乎是最优的。

自适应复杂度接近最优的非单调子模块最大化

这项工作提供了第一个常量近似算法,用于最大化具有基数约束$k$的非单调子模块函数,该函数具有近似最优的自适应复杂性$O(\log(n))$,并且每个元素预期只对函数求值预言器进行两次调用。

贪婪是好的:通过贪婪优化实现近似最优子模最大化

本文表明,调用经典贪婪算法O(\sqrt{k})-times可以得到(目前)最快的确定性算法,称为Repeated greedy,用于在$k独立系统约束下最大化一般子模函数,并导出一个几乎匹配的下界。

基于线性规划透镜的子模块最大化

这项工作描述了一种快速且非常通用的局部搜索过程,该过程适用于各种约束族,并统一和扩展了以前的方法,解决了线性优化和子模最大化之间关系的一个悬而未决的问题。

最大化子模函数的自适应复杂性

结果表明,在可实现的情况下,如果存在生成数据的真正底层函数,则需要且足以在基数约束下近似“学习优化”单调子模函数。

最大化子模函数的快速算法

开发了一种新的连续贪婪算法变体,它介于经典贪婪算法和真正的连续算法之间,可以通过对目标函数的O(n2)预言调用来实现拟阵和背包约束。

背包约束下单调和非单调子模最大化的逼近

本文建立了离散问题与其连续松弛之间的强关系,该关系是通过子模函数的期望进行扩展得到的,并表明由连续解定义的概率域可以简化为多项式域。