×

多项式模型的惩罚最小差异方法。 (英语) 兹比尔0905.62030

摘要:概率向量的稳健估计是有限单元多项式模型的一个重要问题。当概率向量不受限制时,其估计值等于所有最小视差估计量的观测比例向量[B.G.林赛《美国年鉴》第22卷第2期第1081-1114页(1994年;Zbl 0807.62030)]. 但是,当概率是维数小于(k)的参数(θ)的函数时,估计值可能会因不同的差异而显著不同。特别是,在系统偏离模型的情况下,一些程序(如最小Hellinger距离法)可能大大优于最大似然估计(MLE)或最小(Pearson’s)叉方估计。所有最小视差估计量都具有最优渐近效率性质。
然而,在许多差异亚类中,如Cressie-Read家族[N.克雷西T.C.读取、J.R.Stat.Soc.、Ser。B 46,440-464(1984年;Zbl 0571.62017号)]类中更健壮的成员通常会在小样本效率方面遭受重大损失。我们考虑一种校正,这种校正可以显著改善程序的小样本特性,通常保持其鲁棒性特性不变。给出了几种多项式模型的精确结果,并考虑了一些数据示例。

MSC公司:

62层35 鲁棒性和自适应程序(参数推断)
62甲12 多元分析中的估计
PDF格式BibTeX公司 XML格式引用