• 语料库ID:12792949

近乎紧密的界限1自边界函数的逼近

@文章{Feldman 2014 NearlyTB,title={接近紧密界限1自界函数的逼近},author={Vitaly Feldman和Pravesh Kothari以及Jan Vondr,日志={ArXiv},年份={2014},体积={abs/1404.4702},网址={https://api.semanticscholar.org/CorpusID:12792949}}
结果表明,PAC和自限函数的不可知学习具有n^{tilde{Theta}(1/\epsilon)}$的复杂性。

询问这篇论文
AI供电

子模函数和XOS函数的低阶谱浓度的紧界

这些技术揭示了子模和XOS函数的新结构性质,并且上界导致了这些类函数的几乎最优的PAC学习算法。

机器学习和人工智能中的子模块

简要回顾了子模块和超模块及其属性,以及子模块如何用于聚类、数据分区、并行机器学习、主动和半监督学习、概率建模、结构化规范和损失函数。

拍卖设计中特征的算法信号传递

这项工作通过解决一个新的优化问题,为广告拍卖提供了一种有效的算法解决方案,该问题涉及对独立随机向量之和的期望,这些向量可能基于学习k-juntas的推测硬度而具有独立的兴趣,这是学习理论中的一个中心开放问题。

用低秩决策树表示、逼近和学习子模函数

通过两个下界证明了PAC和不可知学习算法本质上是最优的:信息理论下界$2^{Omega(1/\epsilon^{2/3})}讨论了在任何合理模型中学习单调子模函数的复杂性,以及基于带噪声稀疏奇偶学习的简化的计算下限。

不可知学习的近似弹性、单调性和复杂性

近似弹性的特征表明,低次多项式的$\ell_1$近似对于产品分布的不可知学习来说是足够的,实际上对于单调juntas来说是必要的。

学习报道功能与边缘新闻的私下发布

本文基于覆盖函数的几个新的结构性质,给出了第一个完整的多项式算法,用于学习需求PMAC模型中一类有趣的函数,并表明覆盖函数是不可知的,在时间$n^{log(1/\ep-silon)}$中所有乘积和对称分布上都有多余的$\ell1$-error$\epsilon$。

用Juntas逼近子模函数和XOS函数的最佳界

本文研究了几类实值函数通过少量变量函数(juntas)的逼近性,表明2<sup>Ω(1/ϵ)</sup>变量即使对于XOS函数也是必要的,并提供了均匀分布上的学习算法。

子模函数和XOS函数的低阶谱浓度的紧界

这些技术揭示了子模函数和XOS函数的新的结构特性,上界导致了这些函数类的近似最优PAC学习算法。

学习伪布尔k-DNF和子模函数

证明了任何子模函数f:0,1}^n->{0,1,…,k}都可以表示为伪布尔2k-DNF公式,并证明了如果与公式项相关的所有常数都有界,则Hastad切换引理的类似物成立。

有限独立愚人半空间

得到了$\pmo^n$上任意分布的第一个显式伪随机生成器,即k态独立愚弄任意半空间(也称为阈值)。

绘制估价函数

证明了每一种仅通过值查询访问函数的确定性算法都不能保证比n1−e更好的草图比率,并且证明了覆盖函数是子模块函数的一个有趣子类,它允许任意好的草图。

处处逼近子模函数

在只进行poly(n)oracle查询后,考虑了在任意大小为n的基集上逼近非负单调子模函数f的问题,并证明了即使对于拟阵的秩函数,也没有任何算法能获得比Ω(√n/logn)更好的因子。

学习覆盖功能

证明了任何覆盖函数都可以用仅依赖于O(1/ǫ)变量的覆盖函数在l1中逼近,该覆盖函数紧到常数因子。