×

基于PRISM中命题概率计算的变分贝叶斯算法。 (英语) Zbl 1178.68591号

摘要:我们通过符号统计建模语言PRISM中的命题概率计算,提出了一种基于逻辑的变分贝叶斯方法。PRISM通过将逻辑公式简化为“与/或”布尔公式来计算逻辑公式的概率,这些布尔公式称为包含概率\({{mathtt-msw}}/2\)原子的解释图。我们在({{mathtt-msw}}/2)原子的参数上放置Dirichlet先验,并导出了一个变分Bayes EM算法,该算法从数据中学习其超参数。它运行在从程序和目标推导出的解释图上,并以动态规划的方式计算概率,在图的大小上呈时间线性。为了证明所提出方法的贝叶斯建模的通用性和有效性,我们进行了两个学习实验,一个使用概率右角文法,另一个使用轮廓-HMM。据我们所知,以前没有关于VB应用于这些模型的报告。

MSC公司:

68层37 人工智能背景下的不确定性推理
2015年1月62日 贝叶斯推断
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Attias,H.:通过变分贝叶斯推断潜在变量模型的参数和结构。摘自:《第十五届人工智能不确定性会议记录》(UAI-99),第21-30页,斯德哥尔摩,1999年7月30日至8月1日
[2] 贝克,J.K.:语音识别的可训练语法。摘自:《美国声学学会春季会议论文集》,第547-550页(1979年)
[3] Bateman,A.,Birney,E.,Durbin,R.,Eddy,S.,Howe,K.,Sonnhammer,E.:Pfam蛋白家族数据库。《核酸研究》28(1),263–266(2000)·doi:10.1093/nar/28.1.263
[4] Beal,M.,Ghahramani,Z.:不完全数据的变分贝叶斯EM算法:用于对图形模型结构进行评分。收录于:贝叶斯统计,第7卷,第453-454页。牛津大学出版社,牛津(2003)
[5] Beal,M.J.,Ghahramani,Z.:带隐藏变量的有向图形模型的变分贝叶斯学习。贝叶斯分析。1(4), 793–832 (2006) ·Zbl 1331.68181号 ·doi:10.1214/06-BA126
[6] Chavira,M.,Darwiche,A.:编译具有本地结构的贝叶斯网络。摘自:2005年7月30日至8月5日在爱丁堡举行的第19届国际人工智能联合会议(IJCAI'05),第1306-1312页
[7] Cheeseman,P.,Stutz,J.:贝叶斯分类(自动分类):理论和结果。摘自:Fayyad,U.、Piatetsky-Shapiro,G.、Smyth,P.、Uthurusamy,R.(编辑)《知识发现和数据挖掘的进展》,第153-180页。AAAI,门罗公园(1996)·兹伯利0925.62119
[8] Dempster,A.P.,Laird,N.M.,Rubin,D.B.:通过EM算法获得不完整数据的最大似然。R.Stat.Soc.B39(1),1–38(1977)·Zbl 0364.62022号
[9] Ghahramani,Z.,Beal,M.:图形模型和变分方法。收录:Saad,D.,Opper,M.(编辑)《高级平均场方法——理论与实践》。麻省理工学院,剑桥(2001)
[10] 古德曼(Goodman,J.):从内到外剖析。哈佛大学博士论文(1998)
[11] Kameya,Y.,Sato,T.:参数化逻辑程序的高效EM学习。摘自:第一届计算逻辑会议论文集(CL'00)。《人工智能课堂讲稿》,第1861卷,第269-294页。施普林格,纽约(2000年)·Zbl 0983.68527号
[12] Krogh,A.,Brown,M.,Mian,I.,Sjolander,K.,Haussler,D.:计算生物学中的隐马尔可夫模型:在蛋白质建模中的应用。分子生物学杂志。235, 1501–1531 (1994) ·doi:10.1006/jmbi.1994.1104
[13] Kurihara,K.,Sato,T.:变分贝叶斯方法在概率上下文无关文法中的应用。摘自:IJCNLP-04《超越浅层分析的研讨会论文集》(2004年)
[14] Kurihara,K.,Sato,T.:自然语言的变分贝叶斯语法归纳。摘自:2006年9月20日至22日在东京举行的第八届语法推断国际学术讨论会(ICGI-2006),第84-95页·Zbl 1158.68410号
[15] 麦凯,D.:隐藏马尔可夫模型的集成学习。剑桥大学卡文迪什实验室技术报告(1997年)
[16] Manning,C.:使用左角语言模型的概率分析。载:第五届解析技术国际会议论文集(IWPT-97),第147-158页。麻省理工学院,剑桥(1997)
[17] Mateescu,R.,Dechter,R.:与/或搜索空间与变量消除之间的关系。摘自:《第21届人工智能不确定性会议论文集》(UAI'05),第380-387页,爱丁堡,2005年7月26-29日
[18] McAllester,D.,Collins,M.,Pereira,F.:结构化概率建模的案例因素图。摘自:《第20届人工智能不确定性年会论文集》(UAI'04),第382-391页。阿灵顿AUAI(2004)·Zbl 1161.68784号
[19] Minato,S.、Satoh,K.、Sato,T.:基于零抑制bdds的符号概率计算编译贝叶斯网络。摘自:2007年1月6日至12日在海得拉巴举行的第20届国际人工智能联合会议(IJCAI'07),第2550–2555页
[20] Pearl,J.:《智能系统中的概率推理》。Morgan Kaufmann,旧金山(1988)·Zbl 0649.68104号
[21] Rabiner,L.R.:语音识别中隐藏马尔可夫模型和选定应用的教程。程序。IEEE 77(2),257–286(1989)·数字对象标识代码:10.1109/5.18626
[22] Roark,B.,Johnson,M.:高效的概率自顶向下和左角解析。摘自:计算语言学协会第37届年会会议记录,第421-428页(1999)
[23] 佐藤,T.:信念传播的内外概率计算。载:《第20届国际人工智能联合会议论文集》(IJCAI'07),第2605-2610页(2007年)
[24] 佐藤:棱镜符号统计建模一瞥。J.智力。信息系统。31(2), 161–176 (2008) ·doi:10.1007/s10844-008-0062-7
[25] Sato,T.、Abe,S.、Kameya,Y.、Shirai,K.:PCFG的EM学习的独立学习方法。摘自:第六届环太平洋自然语言处理研讨会论文集(NLRPS2001),第255-262页(2001)
[26] 佐藤,T.,卡梅亚,Y.:PRISM:一种符号统计建模语言。载:《第15届国际人工智能联合会议论文集》(IJCAI’97),第1330–1335页(1997年)
[27] 佐藤,T.,卡梅亚,Y.:符号统计建模逻辑程序的参数学习。J.阿蒂夫。智力。第15号决议,391-454(2001年)·Zbl 0994.68025号
[28] Sato,T.、Kameya,Y.、Abe,S.、Shirai,K.:PCFG家族的快速EM学习。技术报告(CS部门)TR01-0006,东京理工大学(2001)
[29] Schwarz,G.:估算模型的维数。Ann.Stat.6(2),461-464(1978)·Zbl 0379.62005年 ·doi:10.1214/aos/1176344136
[30] Sornlertlamvanich,V.、Inui,K.、Shirai,K.,Tanaka,H.、Tokunaga,T.、Takezawa,T.:概率glr解析的实证评估。摘自:《环太平洋自然语言处理研讨会论文集》,第169-174页(1997)
[31] Stoye,J.、Evers,D.、Meyer,F.:罗斯:生成序列家族。生物信息学14(2),157-163(1998)·doi:10.1093/bioinformatics/14.2.157
[32] Uratani,N.,Takezawa,T.,Matsuo,H.,Morita,C.:ATR综合语音和语言数据库。技术报告TR-IT-0056,ATR解释电信研究实验室(1994年,日语)
[33] Van Uytsel,D.,Van Aelten,F.,Van Compernolle,D.:概率左角解析的语言建模。计算。演讲语言.1971–204(2005)·doi:10.1016/j.csl.2004.05.009
[34] Van Uytsel,D.、Van Compernolle,D.和Wambacq,P.:基于PLCG的语言模型的最大似然训练。收录:IEEE自动语音识别和理解研讨会2001年会议记录(ASRU'01)(2001)
[35] Wetherell,C.S.:概率语言:综述和一些开放性问题。计算。Surv公司。12(4), 361–379 (1980) ·Zbl 0466.68073号 ·数字对象标识代码:10.1145/356827.356829
[36] Zhou,N.F.,Sato,T.:线性表中的高效不动点计算。摘自:第五届ACM-SIGPLAN声明性编程原则与实践国际会议记录(PPDP'03),第275-283页(2003)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。