要了解,只需估计错误所有候选假设同时。我们研究了这种“同时估计”何时可能的问题,并表明它会导致新的学习过程和一类广泛学习问题的较弱充分条件。我们修改了标准的可能近似正确(PAC)设置,以允许使用“随机函数”的概念。确定性函数将集合X映射到集合Y,而随机函数是X X Y上的概率分布。我们通过集中于所有估计的子集来处理同时估计问题,满足自然“平滑”约束的那些。常见的经验估计属于这一类。我们证明了光滑同时可估计性可以用基于抽样的准则来表征。此外,我们还描述了这类问题的典型估计。这个典型估计量有一个独特的形式:它使用部分样本来选择近似于候选假设类别的有限假设子集,然后使用其余样本来估计子集中每个假设的误差。最后,我们证明了基于典型估计的学习过程在经验误差最小化的任何情况下都有效。