摘要
C.Claus和G.Boutiler。 协作多智能体系统中强化学习的动力学。 在 第十五届国际人工智能会议纪要 ,第746-752页,1998年。 谷歌学者 数字图书馆 H.金蒂斯。 博弈论演进:以问题为中心的战略互动建模导论 普林斯顿大学出版社,2001年。 谷歌学者 J.Hofbauer和K.Sigmund。 进化博弈与人口动力学 剑桥大学出版社,1998年。 谷歌学者 交叉引用 S.Kapetanakis和D.Kudenko。 协作多智能体系统中协调的强化学习。 在 第十九届全国人工智能会议记录(AAAI-02) , 2002. 谷歌学者 数字图书馆 M.Lauer和M.Riedmiller。 协作多智能体系统中的分布式强化学习算法。 在 第十七届国际机器学习会议记录 ,第535-542页。 Morgan Kaufmann,2000年。 谷歌学者 数字图书馆 J.梅纳德·史密斯。 进化与博弈论 剑桥大学出版社,1982年。 谷歌学者 J.Maynard-Smith和J.Price。 动物冲突的逻辑。 性质 , 146:15--18, 1973. 谷歌学者 交叉引用 L.Panait、K.Sullivan和S.Luke。 对队友的宽容有助于多智能体的合作学习。 在 第五届自治代理和多代理系统国际联合会议论文集——AAMAS-2006 ACM,2006年。 谷歌学者 L.萨缪尔森。 进化博弈与均衡选择 麻省理工学院出版社,马萨诸塞州剑桥,1997年。 谷歌学者 S.P.Singh、M.J.Kearns和Y.Mansour。 广义和博弈中梯度动力学的纳什收敛性。 在 UAI'00:第16届人工智能不确定性会议记录 ,第541-548页,美国加利福尼亚州旧金山,2000年。 摩根考夫曼出版公司。 谷歌学者 数字图书馆 R.Sutton和A.Barto。 强化学习:简介 马萨诸塞州剑桥:麻省理工学院出版社。, 1998 谷歌学者 数字图书馆 K.Tuyls、P.’t Hoen和B.Vanschoenwinkel。 迭代博弈中多智能体学习的进化动力学分析。 自治代理和多代理系统杂志 ,12:115--1532006年。 谷歌学者 数字图书馆 K.Tuyls、K.Verbeeck和T.Lenaerts。 多智能体系统中Q学习的选择-变异模型。 在 第二届自治代理和多代理系统国际联合会议。 澳大利亚墨尔本ACM出版社 ,2003年。 谷歌学者 数字图书馆 F.吠陀-雷东多。 经济学与博弈论 剑桥大学出版社,2003年。 谷歌学者 交叉引用 C.Watkins和P.Dayan。 Q学习。 机器学习 , 8:279--292, 1992. 谷歌学者 数字图书馆 C.J.沃特金斯。 延迟强化学习模型 1989年,英国剑桥大学心理学系博士论文。 谷歌学者 J.W.威布尔。 进化博弈论 麻省理工学院出版社,1996年。 谷歌学者 R.P.威根。 协同进化算法分析 2004年弗吉尼亚州费尔法克斯乔治·梅森大学博士论文。 谷歌学者 数字图书馆
建议
协作多智能体系统中的宽容学习者 AAMAS’06:第五届自主代理和多代理系统国际联合会议记录 在并发学习算法中,代理对联合搜索空间的感知取决于其他代理当前选择的动作。 当每个代理的行为选择受到其学习的影响时,这些感知会发生变化。 我们观察到。。。 宽容学习的实证和理论支持 AAMAS’11:第十届自主代理和多代理系统国际会议-第3卷 最近,人们提出了一种Lenient Q学习(LQ)的进化模型,为协作多智能体学习收敛到全局最优提供了理论保证。 然而,实验表明,预测的。。。