×

基于Q-学习的模糊规则插值增量规则库创建。 (英语) Zbl 1209.68431号

Rudas,Imre J.(ed)等人,《计算智能与信息学》。根据2009年11月12日至14日在匈牙利布达佩斯举行的第十届匈牙利研究人员计算智能和信息学国际研讨会上的演讲,选出了一些论文。柏林:施普林格出版社(ISBN 978-3-642-15219-1/hbk;978-3-642-15220-7/电子书)。计算智能研究313191-203(2010)。
摘要:强化学习(RL)是计算智能中一个广为人知的主题。在RL概念中,需要解决的问题隐藏在环境的反馈中,称为奖励。使用这些奖励,系统可以了解在给定状态下,哪种行为被认为是最佳选择。最常用的RL方法之一是Q学习,最初是针对离散状态和作用引入的。应用模糊推理,该方法可以适用于连续环境,称为模糊Q学习。作者已经介绍了模糊Q学习方法的扩展,该方法具有处理稀疏模糊规则库的能力。后者建议使用模糊规则插值(FRI)方法作为Q学习的推理方法,称为FRIQ学习。本文的主要目的是介绍一种可以在较小的规模内从头构建所需FRI模糊模型的方法。减少是通过增量创建有意稀疏的模糊规则库来实现的。此外,一个应用实例(cart-pole问题仿真)显示了所提出的规则库约简方法的良好结果。
关于整个系列,请参见[Zbl 1200.68020号].

MSC公司:

68T05型 人工智能中的学习和自适应系统

软件:

FRI公司
PDF格式BibTeX公司 XML格式引用
全文: 内政部