卢卡斯·莱纳特
人员信息
优化列表
![笔记](https://dblp.org/img/note-mark.dark.12x12.png)
2020年–今天
2024 [第九章] 卢卡斯·莱纳特 , 桑巴亚尔·苏赫巴托 , 保罗·麦克维 , 迈克尔·拉巴特 , 田远东 :
超越A*:通过搜索动态引导更好地规划变形金刚。 CoRR公司 abs/2402.14083 ( 2024 ) 2023 【c4】 阿纳夫·库马尔·贾因 , 卢卡斯·莱纳特 , 伊琳娜·里希 , 格伦·贝塞斯 :
使用前置和后继表示的最大状态熵探索。 NeurIPS公司 2023 [i8] 罗汉·奇尼斯 , 许颖晨 , 博巴克·哈希米 , 卢卡斯·莱纳特 , 尤尔·杜根 , 朱哲清 , 奥利维尔·德拉略 :
IQL-TD-MPC:用于分层模型预测控制的隐式Q学习。 CoRR公司 abs/2306.00867 ( 2023 ) [i7] 阿纳夫·库马尔·贾因 , 卢卡斯·莱纳特 , 伊琳娜·里什 , 格伦·贝塞斯 :
使用前置和后继表示的最大状态熵探索。 CoRR公司 abs/2306.14808 ( 2023 ) 2022 [i6] 卢卡斯·莱纳特 , 迈克尔·J·弗兰克 , 迈克尔·L·利特曼 :
回报预测集群。 CoRR公司 abs/2211.03281 ( 2022 ) 2021 【b1】 卢卡斯·莱纳特 :
状态表示中可重用知识的编码。 美国布朗大学, 2021 2020 [注2] 卢卡斯·莱纳特 , 迈克尔·利特曼 :
后续特征结合了无模型和基于模型的强化学习的要素。 J.马赫。 学习。 物件。 21 : 196:1-196:53 ( 2020 ) [j1] 卢卡斯·莱纳特 , 迈克尔·利特曼 , 迈克尔·J·弗兰克 :
在强化学习中,奖惩性表征在任务中具有普遍性。 公共科学图书馆计算。 生物。 16 ( 10 ) ( 2020 )
2010 – 2019
2019 [i5] 卢卡斯·莱纳特 , 迈克尔·利特曼 :
后续功能支持基于模型和无模型的强化学习。 CoRR公司 abs/1901.11437 ( 2019 ) 2018 【c3】 卢卡斯·莱纳特 , 罗曼·拉罗什 , 哈姆·范·塞扬 :
关于长时间问题的值函数表示。 AAAI公司 2018 : 3457-3465 【c2】 埃布尔 , 迪利普·阿鲁穆甘 , 卢卡斯·莱纳特 , 迈克尔·利特曼 :
终身强化学习的状态抽象。 ICML公司 2018 : 10-19 [i4] 卢卡斯·莱纳特 , 迈克尔·L·利特曼 :
强化学习中的模型特征迁移。 CoRR公司 abs/1807.01736 ( 2018 ) [i3] 迪利普·阿鲁穆甘 , 埃布尔 , 卡沃什·阿萨迪 , 纳库尔·戈帕兰 , 克里斯托弗·格林 , 李俊基 , 卢卡斯·莱纳特 , 迈克尔·利特曼 :
缓解基于模型的强化学习中的计划员过度拟合。 CoRR公司 abs/1812.01129 ( 2018 ) 2017 [i2] 卢卡斯·莱纳特 , 斯蒂芬妮·特莱克斯 , 迈克尔·利特曼 :
在强化学习中使用后继特征进行迁移的优点和局限性。 CoRR公司 abs/1708.00102 ( 2017 ) 2015 [i1] 卢卡斯·莱纳特 , Doina Precup公司 :
非政策控制的政策梯度方法。 CoRR公司 abs/1512.04105 ( 2015 ) 2014 【c1】 阿瑟·门施 , 伊曼纽尔·皮兹 , 卢卡斯·莱纳特 , 阿德里安娜斯·贝克曼 , 乔恩·斯波林 , 古斯塔夫·斯特里杰克斯 , 卡利姆·西迪奇 :
心脏跳动的连接形式-左心室力学挑战(方法)。 STACOM公司 2014 : 83-92
合著者索引
![](https://dblp.org/img/cog.dark.24x24.png)