阿亚南德拉纳塔·巴苏;斯拉巴什·巴苏 多项式模型的惩罚最小差异方法。 (英语) 兹比尔0905.62030 统计正弦。 8,第3期,841-860(1998). 摘要:概率向量的稳健估计是有限单元多项式模型的一个重要问题。当概率向量不受限制时,其估计值等于所有最小视差估计量的观测比例向量[B.G.林赛《美国年鉴》第22卷第2期第1081-1114页(1994年;Zbl 0807.62030)]. 但是,当概率是维数小于(k)的参数(θ)的函数时,估计值可能会因不同的差异而显著不同。特别是,在系统偏离模型的情况下,一些程序(如最小Hellinger距离法)可能大大优于最大似然估计(MLE)或最小(Pearson’s)叉方估计。所有最小视差估计量都具有最优渐近效率性质。然而,在许多差异亚类中,如Cressie-Read家族[N.克雷西和T.C.读取、J.R.Stat.Soc.、Ser。B 46,440-464(1984年;Zbl 0571.62017号)]类中更健壮的成员通常会在小样本效率方面遭受重大损失。我们考虑一种校正,这种校正可以显著改善程序的小样本特性,通常保持其鲁棒性特性不变。给出了几种多项式模型的精确结果,并考虑了一些数据示例。 引用于18文件 MSC公司: 62层35 鲁棒性和自适应程序(参数推断) 62甲12 多元分析中的估计 关键词:渐近效率;混合权重Hellinger差异;Cressie-Read差异;空单元格;剩余调整功能 引文:Zbl 0807.62030;Zbl 0571.62017号 PDF格式BibTeX公司 XML格式引用 \textit{A.Basu}和\textit{S.Basu},Stat.Sin。8,第3号,841--860(1998;Zbl 0905.62030)