学习赢得过程控制游戏观看游戏大师

@进行中{案例1998学习TW,title={学习赢得过程控制游戏观看游戏大师},作者={John Case和Matthias Ott以及Arun Sharma和Frank Stephan},booktitle={信息与计算},年份={1998年},网址={https://api.semanticscholar.org/CorpusID:14507723}}
研究表明,被选中的大师比武断的大师更有助于学习,在有些情况下,人们可以从大师那里学习赢得策略的程序,但如果需要学习大师策略本身的程序,则无法学习。

无限游戏的学习策略

本文受到了作者与John Case教授和Arun Sharma教授进行的许多有趣讨论的影响,也受到了他数学技巧惊人的速度和无限范围的影响,他对此非常钦佩。

学习分支的复杂性与查询策略

找到了一种应用Anguin关于从查询中识别确定性有限自动机的结果的方法,它可以产生正负策略学习结果,并且证明了这类无死角的封闭有限状态博弈是可以从成员和策略查询中有效地学习策略的。

IMP游戏:超越$$\Sigma^0_1的可学习性、接近性和对抗性学习$$

介绍了迭代匹配便士博弈,表明它是研究三个问题的有力框架:对手可学习性、常规(即非对手)可学习性和逼近性。

迄今为止的进展和今后的发展方向

本文首先简要指出了作者几十年来在可计算性理论(CT),也就是递归函数理论方面工作的主要非标准动机。然后它讨论

一步并行重写理论的存在片段

结果表明,对于带有***7前缀的公式和左线性重写系统,***p的一阶理论已经是不可判定的。

超越纯数学的可计算性理论方向

本文首先简要说明了作者数十年来在可计算性理论(CT),即递归函数理论(Recursive Function Theory)方面工作的主要非标准动机。

学习分支和学习赢得封闭游戏

引入了归纳推理的两个新概念:学习递归树的无限递归分支和学习封闭递归博弈的获胜策略,这两个概念等价于获胜策略学习。

无限对策中策略的综合

描述了无限对策的自动机理论设置(由“对策图”给出),有限状态对策中获胜策略的一种新构造,以及在有效呈现的无限图上进行对策时出现的一些问题。

用有限状态策略求解序列条件

一种决定条件是否存在的算法𝕮序列微积分中陈述的(X,Y)允许有限自动机解,如果存在,则产生有限自动机解,并解决[4]中陈述的问题,并包含[6]中保留的情况4的答案。

学习分支的复杂性与查询策略

找到了一种应用Anguin关于从查询中识别确定性有限自动机的结果的方法,它可以产生正负策略学习结果,并且证明了这类无死角的封闭有限状态博弈是可以从成员和策略查询中有效地学习策略的。

有限图上的无限对策

强化学习:一项调查

讨论了强化学习的核心问题,包括权衡探索和开发,利用马尔可夫决策理论建立领域基础,从延迟强化中学习,构建加速学习的经验模型,利用泛化和层次结构,以及处理隐藏状态。

多元论在程序自动综合中的作用

研究了学习过程中涉及的IIM数量与成功标准的通用性之间的权衡。

使用符号机器学习自动构建反应控制系统

本文回顾了机器学习在工业控制问题中的一些应用,从尝试为任务自动构建基于规则的反应系统的角度出发,这些任务如果由人类执行,将需要高度的技能,但通常是在不经过思考的情况下执行的。