黄、方兰;谢卓瑞;张凯伟;林志珍 最大熵模型的迭代缩放和坐标下降方法。 (英语) 兹比尔1242.68351 J.马赫。学习。物件。 1815-848(2010年). 摘要:最大熵(Maxent)在自然语言处理和许多其他领域都很有用。迭代缩放(IS)方法是求解Maxent最常用的方法之一。对于IS方法的许多变体,很难理解它们并看到它们之间的差异。在本文中,我们为迭代缩放方法创建了一个通用的统一框架。该框架还连接了迭代缩放和坐标下降方法。我们证明了IS方法的一般收敛性结果,并分析了它们的计算复杂性。基于该框架,我们将线性SVM的坐标下降方法推广到Maxent。结果表明,它比现有的迭代缩放方法更快。 引用于三文件 MSC公司: 68T50型 自然语言处理 68T05年 人工智能中的学习和自适应系统 62H30型 分类和区分;聚类分析(统计方面) 关键词:最大熵;迭代缩放;坐标下降;自然语言处理;优化 软件:L-BFGS公司 PDF格式BibTeX公司 XML格式引用 \textit{F.-L.Huang}等人,J.Mach。学习。第11815-848号决议(2010年;兹比尔1242.68351) 全文: 链接