×

战略游戏中的智慧。 (英语) 兹比尔1519.68290

概要:如果一个代理人或代理人联盟有一个战略,知道她有一个策略,知道这个策略是什么,那么她就有一个专有技术战略。之前已经研究了专有技术战略联盟权力的几种模态逻辑。
这篇文章的贡献有三方面。首先,它提出了一类新的专有技术战略,该战略依赖于有关对手行动的情报信息。其次,它表明,拟议的新一类战略的联盟权力模式不能通过标准的专有技术模式来表达。第三,它给出了一个完善的逻辑系统,描述了具有智能的联盟权力模式和不完全信息游戏中的分布式知识模式之间的相互作用。

MSC公司:

68T42型 Agent技术与人工智能
03B42号 知识和信念的逻辑(包括信念变化)
68T27型 人工智能中的逻辑
91A12号机组 合作游戏
91A27型 不完全信息博弈,贝叶斯博弈
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] ˚
[2] Agotnes,T.和Alechina,N.(2019年)。具有个人、分布式和公共知识的联盟逻辑。逻辑与计算杂志,291041-1069·Zbl 1444.03021号
[3] ˚
[4] Agotnes,T.、Balbiani,P.、van Ditmarsch,H.和Seban,P.(2010年)。集团公告逻辑。应用逻辑杂志,8(1),62-81·Zbl 1200.03015号
[5] ˚
[6] Agotnes,T.、van der Hoek,W.和Wooldridge,M.(2009)。关于联盟游戏的推理。人工智能,173(1),45-79·Zbl 1180.68271号
[7] ˚
[8] Agotnes,T.,&W´ang,Y.N.(2017年)。解决分布式知识。人工智能,252,1-21·Zbl 1419.68103号
[9] Baltag,A.和van Benthem,J.(2021)。函数依赖的简单逻辑。《哲学逻辑杂志》(即将出版)·Zbl 07420139号
[10] Bard,N.、Foerster,J.N.、Chandar,S.、Burch,N.、Lanctot,M.、Song,H.F.、Parisotto,E.、Dumoulin,V.、Moitra,S.、Hughes,E.、Dunning,I.、Mourad,S.、Larochelle,H.、Bellemare,M.G.和Bowling,M.(2020)。哈纳比挑战:人工智能研究的新前沿。人工智能,280103216·Zbl 1476.68223号
[11] Belardinelli,F.(2014)。关于知识和策略的推理:认知策略逻辑。2014年4月5日至6日,法国格勒诺布尔,《第二届国际战略推理研讨会论文集》,第146卷,第27-33页·Zbl 1464.03015号
[12] Belardinelli,F.、Dima,C.和Murano,A.(2018年)。策略逻辑的互模拟:表达性和验证研究。《第16届知识表示和推理原则国际会议论文集》,第425-434页。
[13] Belardinelli,F.、Lomuscio,A.和Malvone,V.(2019年)。一种基于抽象的方法,用于验证信息不完全的多智能体系统中的策略属性。在AAAI人工智能会议记录,第33卷,第6030-6037页。
[14] Belle,V.和Lakemeyer,G.(2010年)。认知情境演算中不完全信息博弈的推理。第二十四届AAAI人工智能会议。
[15] Berthon,R.、Maubert,B.、Murano,A.、Rubin,S.和Vardi,M.Y.(2017年)。信息不完全的战略逻辑。InLogic in Computer Science(LICS),2017年第32届ACM/IEEE年度研讨会,第1-12页。电气与电子工程师协会·Zbl 1458.68113号
[16] Borgo,S.(2007年)。行动逻辑中的联合。在第20届国际人工智能联合会议上,第1822-1827页。
[17] Budiansky,S.(2002)。在大西洋战役中,德军与盟军的密码破坏者。国际海军历史杂志,1(1)。
[18] Burch,N.、Johanson,M.和Bowling,M.(2014年)。利用分解求解不完全信息博弈。第二十届美国人工智能协会人工智能会议。
[19] Buro,M.、Long,J.R.、Furtak,T.和Sturtevant,N.R.(2009年)。改进基于技巧的纸牌游戏中的状态评估、推理和搜索。。InIJCAI,第1407-1413页。
[20] Cao,R.和Naumov,P.(2020年)。知道成功的代价。人工智能,284103287·Zbl 1451.68291号
[21] Cerm´´ak,P.、Lomuscio,A.和Murano,A.(2015)。根据单目标策略逻辑规范验证和合成多智能体系统。第二十届AAAI人工智能会议。
[22] Chatterjee,K.、Henzinger,T.A.和Piterman,N.(2010年)。战略逻辑。信息与计算,208(6),677-693·兹比尔1205.68197
[23] Fagin,R.、Halpern,J.Y.、Moses,Y.和Vardi,M.Y.(1995)。关于知识的推理。麻省理工学院出版社,马萨诸塞州剑桥·Zbl 0839.68095号
[24] Fervari,R.、Herzig,A.、Li,Y.和Wang,Y.(2017年)。战略上知道如何。《第二十六届国际人工智能联合会议论文集》,IJCAI17,第1031-1038页。
[25] Gabbay,D.M.(1972年)。模态逻辑的一种通用过滤方法。哲学逻辑杂志,1(1),29-34·Zbl 0248.02025号
[26] Goranko,V.(2001)。联盟游戏和交替时序逻辑。《第八届理性与知识理论方面会议录》,第259-272页。摩根考夫曼出版公司。
[27] Goranko,V.和Enqvist,S.(2018年)。社会友好和团体保护联盟逻辑。《第17届自主代理和多代理系统国际会议论文集》,第372-380页。国际自治代理和多代理系统基金会。
[28] Goranko,V.、Jamroga,W.和Turrini,P.(2013)。战略游戏和真正可玩的有效功能。自治代理和多代理系统,26(2),288-314。
[29] Goranko,V.和Ju,F.(2019年)。走向有条件局部战略推理的逻辑。《逻辑、理性和互动国际研讨会》,第112-125页。斯普林格·Zbl 07160605号
[30] Goranko,V.和Ju,F.(2021年)。条件局部策略推理的逻辑。《逻辑、语言与信息杂志》(即将出版)。arXiv:2102.06148·Zbl 07160605号
[31] Goranko,V.和van Drimmelen,G.(2006)。交替时间逻辑的完全公理化和可判定性。理论计算机科学,353(1),93-117·Zbl 1089.03013号
[32] Jamroga,W.和˚Agotnes,T.(2007)。建构性知识:代理人在不完全信息下可以实现什么。应用非经典逻辑杂志,17(4),423-475·Zbl 1186.03031号
[33] Jamroga,W.和van der Hoek,W.(2004年)。知道如何打球的经纪人。《信息学基础》,63(2-3),185-219·Zbl 1102.68106号
[34] Jiang,Q.,Li,K.,Du,B.,Chen,H.,&Fang,H.(2019年)。DeltaDou:通过自我游戏实现专家级Doudizhu AI。。InIJCAI,第1265-1271页。
[35] Liu,T.、Zheng,Z.、Li,H.、Bian,K.和Song,L.(2019)。通过深度强化学习玩基于卡片的RTS游戏。InIJCAI,第4540-4546页。
[36] Mendelson,E.(2009)。数学逻辑导论。CRC出版社·Zbl 1173.03001号
[37] Mogavero,F.、Murano,A.、Perelli,G.和Vardi,M.Y.(2012年)。是什么使ATL*可判定?战略逻辑的一个决定性片段。在并发理论国际会议上,第193-208页。斯普林格·Zbl 1365.68329号
[38] Mogavero,F.、Murano,A.、Perelli,G.和Vardi,M.Y.(2014)。关于策略的推理:关于模型选择问题。ACM计算逻辑事务(TOCL),15(4),34·Zbl 1354.68178号
[39] Mogavero,F.、Murano,A.、Perelli,G.和Vardi,M.Y.(2017年)。策略推理:关于可满足性问题。计算机科学中的逻辑方法,13·Zbl 1448.68312号
[40] Naumov,P.和Tao,J.(2017a)。认知转型系统中的联盟权力。《2017年自主代理和多代理系统国际会议论文集》,第723-731页。
[41] Naumov,P.和Tao,J.(2017b)。我们一起知道如何实现:知识的认知逻辑。《理性与知识的理论方面第16次会议论文集》,2017年7月24日至26日,EPTCS 251,第441-453页·Zbl 1454.03025号
[42] Naumov,P.和Tao,J.(2018a)。二级专有技术战略。《2018年自治代理和多代理系统国际会议论文集》,第390-398页。
[43] Naumov,P.和Tao,J.(2018b)。具有完美回忆的战略联盟。第三十二届AAAI人工智能会议论文集。
[44] Naumov,P.和Tao,J.(2018c)。我们一起知道如何实现:知识的认知逻辑。人工智能,262279-300·Zbl 1454.03025号
[45] Parker,A.、Nau,D.和Subrahmanian,V.(2006年)。过度自信还是偏执?在不完全信息游戏中搜索。《全国人工智能会议记录》。加利福尼亚州门罗公园;马萨诸塞州剑桥市;伦敦;AAAI出版社;麻省理工学院出版社;1999. ·Zbl 1214.91017号
[46] Pauly,M.(2001)。社交软件逻辑。逻辑、语言和计算研究所博士论文。
[47] Pauly,M.(2002)。游戏中联盟力量的模态逻辑。逻辑与计算杂志,12(1),149-166·Zbl 1003.91006号
[48] Sandholm,T.(2017)。战略推理的超人人工智能:在无限制的德克萨斯州扑救赛中击败顶级专业选手。InIJCAI,第24-25页。
[49] Sauro,L.、Gerbrandy,J.、van der Hoek,W.和Wooldridge,M.(2006)。推理行动与合作。《第五届自主代理和多代理系统国际联合会议论文集》,AAMAS’06,第185-192页,美国纽约州纽约市。
[50] Schmid,M.、Moravcik,M.和Hladik,M..(2014)。在信息不完全的广泛形式游戏中限制支持大小。第二十八届AAAI人工智能大会。
[51] Sevenster,M.(2004)。战舰是一个决策问题。ICGA杂志,27(3),142-149。
[52] Showell,J.P.M.(2003)。德国海军代码破坏者(第1版)。海军研究所。
[53] Sinha,A.、Fang,F.、An,B.、Kiekintveld,C.和Tambe,M.(2018年)。斯塔克伯格安全游戏:展望未来十年的成功。。InIJCAI,第5494-5501页。
[54] Tammelin,O.、Burch,N.、Johanson,M.和Bowling,M.(2015)。解决德克萨斯州Hold’em的提前限值。第二十四届国际人工智能联合会议。
[55] van Benthem,J.(2001年)。动态认知逻辑中的游戏。《经济研究公报》,53(4),219-248·Zbl 1230.03046号
[56] van der Hoek,W.和Wooldridge,M.(2003)。合作、知识和时间:交替时间认知逻辑及其应用。《逻辑研究》,75(1),125-157·Zbl 1034.03013号
[57] van der Hoek,W.和Wooldridge,M.(2005)。关于合作逻辑和命题控制。人工智能,164(1),81-119·Zbl 1132.68744号
[58] van Ditmarsch,H.P.(2002)。游戏动作的描述。《逻辑、语言与信息杂志》,11(3),349-365·Zbl 1003.03014号
[59] Walther,D.、van der Hoek,W.和Wooldridge,M.(2007)。具有显式策略的交替时间时序逻辑。《第十一届理性与知识理论方面会议录》,第269-278页。ACM公司。
[60] 王毅(2015)。知道如何的逻辑。InLogic,理性与互动,第392-405页。斯普林格·Zbl 1471.03038号
[61] 王毅(2018)。一种以目标为导向的知道如何去做的逻辑。合成,195(10),4419-4439。555 ·Zbl 1452.03054号
[62] Wáang,Y.N.和˚Agotnes,T.(2020年)。具有交集的模态逻辑的更简单的完备性证明。动态逻辑国际研讨会,第259-276页。斯普林格·兹比尔07437027
[63] Wisser,F.(2015)。基于完美信息蒙特卡罗抽样变体的专家级纸牌游戏代理。第二十四届国际人工智能联合会议
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。