理查德·刘易斯
人员信息
附属: 密歇根大学心理学系 附属: 俄亥俄州立大学工程学院 附属: 普林斯顿大学心理学系 附属: 卡内基梅隆大学计算机科学学院
其他同名人员
理查德·刘易斯 — 消歧页 理查德·刘易斯 理查德·刘易斯 理查德·J·刘易斯 理查德·刘易斯 彼得·刘易斯 0001 (又名:彼得·理查德·刘易斯 0001 ) -加拿大奥沙瓦安大略理工大学 理查德·刘易斯 0001 -英国伦敦大学金史密斯分校计算机系 理查德·刘易斯 0001 -英国布莱顿苏塞克斯大学数学科学学院 理查德·刘易斯 0002 (又名:Richard P.I.Lewis) -英国剑桥大学化学系 理查德·刘易斯 0002 -英国斯旺西大学语音和图像研究小组
SPARQL查询
优化列表
2020年–今天
2023 [公元35年] 胡晓阳 , 沙恩鹳 , 理查德·刘易斯 , 乔伊斯·柴 :
基于预训练语言模型的上下文类比推理。 ACL(1) 2023 : 1953-1969 [公元34年] 威尔卡·卡瓦略 , 安吉洛斯·菲洛斯 , 理查德·刘易斯 , 李洪拉克 , 萨汀德·辛格 :
使用模块化后继特征逼近器组合任务知识。 ICLR公司 2023 [公元33年] 伊桑·A·布鲁克斯 , Logan墙 , 理查德·刘易斯 , 萨汀德·辛格 :
大型语言模型可以实现策略迭代。 NeurIPS公司 2023 [公元32年] 威尔卡·卡瓦略 , 安德烈·萨拉瓦 , 安吉洛斯·菲洛斯 , 安德鲁·兰皮宁 , 洛伊克·马特(Loic Matthey) , 理查德·刘易斯 , 李洪拉克 , 萨汀德·辛格 , 丹尼尔·希梅内斯·雷泽德 , 丹尼尔·佐兰 :
将行为与后续功能键盘相结合。 NeurIPS公司 2023 【i15】 威尔卡·卡瓦略 , 安吉洛斯·菲洛斯 , 理查德·刘易斯 , 李洪拉克 , 萨汀德·辛格 :
用模块化后继特征逼近器组合任务知识。 CoRR公司 abs/2301.12305 ( 2023 ) [第14条] 胡晓阳 , 谢恩·斯托克斯 , 理查德·刘易斯 , 乔伊斯·柴 :
基于预训练语言模型的上下文类比推理。 CoRR公司 abs/2305.17626 ( 2023 ) [i13] 威尔卡·卡瓦略 , 安德烈·萨莱瓦 , 安吉洛斯·菲洛斯 , 安德鲁·凯尔·兰皮宁 , 洛伊克·马特(Loic Matthey) , 理查德·刘易斯 , 李洪拉克 , 萨汀德·辛格 , 丹尼尔·雷泽德 , 丹尼尔·佐兰 :
将行为与后续功能键盘相结合。 CoRR公司 abs/2310.15940 ( 2023 ) 2022 [公元31年] 郑泽瑜 , 里斯托·武里奥 , 理查德·刘易斯 , 萨汀德·辛格 :
用于时间信用分配的自适应成对权重。 AAAI公司 2022 : 9225-9232 [i12] 维维克·维里亚 , 郑泽瑜 , 理查德·刘易斯 , 萨汀德·辛格 :
GrASP:基于梯度的规划负担选择。 CoRR公司 abs/2202.04772 ( 2022 ) [i11] 伊桑·A·布鲁克斯 , Logan墙 , 理查德·刘易斯 , 萨汀德·辛格 :
上下文策略迭代。 CoRR公司 abs/2210.03821 ( 2022 ) 2021 [公元30年] 刘秀云 , 理查德·刘易斯 :
用转换语言模型解释句子理解中的一致现象:基于相似性的干扰对惊讶和注意的影响。 CMLS公司 2021 : 61-71 [c29] 伊桑·A·布鲁克斯 , Janarthanan Rajendran公司 , 理查德·刘易斯 , 萨汀德·辛格 :
内隐和外显控制流指令的强化学习。 ICML公司 2021 : 1082-1091 [公元28年] 威尔卡·卡瓦略 , 安东尼·梁 , 李金敏(Kimin Lee) , Sungryull Sohn先生 , 李洪拉克 , 理查德·刘易斯 , 萨汀德·辛格 :
第一人称模拟3D环境中稀疏奖励对象交互任务的强化学习。 国际JCAI 2021 : 2219-2226 [公元27年] 郑泽瑜 , 维维克·维里亚 , 里斯托·武里奥 , 理查德·刘易斯 , 萨汀德·辛格 :
从随机深层动作条件预测中学习状态表示。 NeurIPS公司 2021 : 23679-23691 [i10] 郑泽瑜 , 维维克·维里亚 , 里斯托·武里奥 , 理查德·刘易斯 , 萨汀德·辛格 :
从随机深层动作条件预测中学习状态表示。 CoRR公司 abs/2102.04897 ( 2021 ) [第九章] 郑泽瑜 , 里斯托·武里奥 , 理查德·刘易斯 , 萨汀德·辛格 :
临时信贷分配的成对权重。 CoRR公司 abs/2102.04999 ( 2021 ) [i8] 伊桑·A·布鲁克斯 , Janarthanan Rajendran公司 , 理查德·刘易斯 , 萨汀德·辛格 :
指令中内隐和外显控制流的强化学习。 CoRR公司 abs/2102.13195 ( 2021 ) [i7] 刘秀云 , 理查德·刘易斯 :
用转换语言模型解释句子理解中的一致现象:基于相似性的干扰对惊讶和注意的影响。 CoRR公司 abs/2104.12874 ( 2021 ) 2020 [公元26年] Janarthanan Rajendran公司 , 理查德·刘易斯 , 维维克·维里亚 , 李洪拉克 , 萨汀德·辛格 :
代理人应该如何实践? AAAI公司 2020 : 5454-5461 [i6] 威尔卡·卡瓦略 , 安东尼·梁 , 李金敏(Kimin Lee) , Sungryull Sohn先生 , 李洪拉克 , 理查德·刘易斯 , 萨汀德·辛格 :
第一人称模拟三维环境中稀疏奖励对象交互任务的强化学习。 CoRR公司 abs/2010.15195 ( 2020 )
2010 – 2019
2019 [公元25年] 张琪(音译) , 理查德·刘易斯 , 萨汀德·辛格 , 埃德蒙·杜菲 :
学习沟通和解决视觉障碍——世界任务。 AAAI公司 2019 : 5781-5788 [公元24年] 维维克·维里亚 , 马特奥·赫塞尔 , 徐忠文 , Janarthanan Rajendran公司 , 理查德·刘易斯 , Junhyuk噢 , 哈多·范·哈塞尔特 , 大卫·西尔弗 , 萨汀德·辛格 :
发现有用的问题作为辅助任务。 NeurIPS公司 2019 : 9306-9317 [i5] 维维克·维里亚 , 马特奥·赫塞尔 , 徐忠文 , 理查德·刘易斯 , Janarthanan Rajendran公司 , Junhyuk噢 , 哈多·范·哈塞尔特 , 大卫·西尔弗 , 萨汀德·辛格 :
发现有用的问题作为辅助任务。 CoRR公司 abs/1909.04607 ( 2019 ) [i4] Janarthanan Rajendran公司 , 理查德·刘易斯 , 维维克·维里亚 , 李洪拉克 , 萨汀德·辛格 :
代理人应该如何实践? CoRR公司 abs/1912.07045 ( 2019 ) 2018 【c23】 平光町 , 马修·戈德里克 , 理查德·刘易斯 , 保罗·斯莫伦斯基 :
梯度符号中结构不确定性的动态编码。 CMCL公司 2018 : 19-28 2017 [公元22年] 阿迪亚·阿查里亚 , 陈秀丽 , 克里斯托弗·迈尔斯 , 理查德·刘易斯 , 安德鲁·豪斯 :
人类视觉搜索作为POMDP的深度强化学习解决方案。 CogSci公司 2017 2016 [j10] 安德鲁·豪斯 , 杰弗里·达根 , 基兰·卡利迪迪 , 袁池曾 , 理查德·刘易斯 :
预测短期记忆为有界最优策略选择。 认知。 科学。 40 ( 5 ) : 1192-1223 ( 2016 ) 【c21】 郭晓晓 , 萨汀德·辛格 , 理查德·刘易斯 , 李洪拉克 :
深入学习奖励设计,改进ATARI游戏中的蒙特卡洛树搜索。 国际JCAI 2016 : 1519-1525 [公元20年] 南江 , 亚历克斯·库莱斯扎 , 萨汀德·辛格 , 理查德·刘易斯 :
有效规划范围对模型准确性的依赖性。 国际JCAI 2016 : 4180-4189 [i3] 郭晓晓 , 萨汀德·辛格 , 理查德·刘易斯 , 李洪拉克 :
深入学习奖励设计,改进ATARI游戏中的蒙特卡洛树搜索。 CoRR公司 abs/1604.07095 ( 2016 ) 2015 [第19条] 南江 , 亚历克斯·库莱斯扎 , 萨汀德·辛格 , 理查德·刘易斯 :
有效规划范围对模型准确性的依赖性。 美国原子能机构 2015 : 1181-1189 [第18条] Junhyuk噢 , 郭晓晓 , 李洪拉克 , 理查德·刘易斯 , 萨汀德·辛格 :
Atari游戏中使用Deep Networks的动作条件视频预测。 NIPS公司 2015 : 2863-2871 [i2] Junhyuk Oh(吴俊赫) , 郭晓晓 , 李洪拉克 , 理查德·刘易斯 , 萨汀德·辛格 :
Atari游戏中使用Deep Networks的动作条件视频预测。 CoRR公司 abs/1507.08750 ( 2015 ) 2014 [公元9年] 刘冰耀 , 萨汀德·辛格 , 理查德·刘易斯 , 秦世音 :
合作代理的最佳报酬。 IEEE传输。 自动。 门。 开发。 6 ( 4 ) : 286-297 ( 2014 ) [j8] 安德鲁·豪斯 , 理查德·刘易斯 , 萨汀德·辛格 :
人类信息处理的效用最大化和界限。 顶部。 认知。 科学。 6 ( 2 ) : 198-203 ( 2014 ) [j7] 理查德·刘易斯 , 安德鲁·豪斯 , 萨汀德·辛格 :
计算理性:通过有限效用最大化连接机制和行为。 顶部。 认知。 科学。 6 ( 2 ) : 279-311 ( 2014 ) [第17条] 迈克尔·什瓦茨曼 , 理查德·刘易斯 , 萨汀德·辛格 :
计算理性的扫荡控制:基于噪声感知和记忆抽样的溢出效应解释。 CMCL@ACL 2014 : 1-9 [第16条] 南江 , 萨汀德·辛格 , 理查德·刘易斯 :
通过近似同态改进UCT规划。 美国原子能机构 2014 : 1289-1296 [第15条] 郭晓晓 , 萨汀德·辛格 , 李洪拉克 , 理查德·刘易斯 , 王晓石(Xiaoshi Wang) :
使用离线Monte-Carlo树搜索规划进行实时Atari游戏深度学习。 NIPS公司 2014 : 3338-3346 2013 [j6] 理查德·刘易斯 , 迈克尔·什瓦茨曼 , 萨汀德·辛格 :
语言任务中眼动的适应性本质:回报和架构如何形成速度-准确性权衡。 顶部。 认知。 科学。 5 ( 三 ) : 581-610 ( 2013 ) [第14条] 约翰·特雷西·黑尔 , 理查德·刘易斯 , 大卫·雷特 , Chung-chieh Shan公司 , 萨珊克·瓦尔马 :
整合语言和认知架构。 AAAI秋季研讨会 2013 [第13条] 克里斯托弗·迈尔斯 , 理查德·刘易斯 , 安德鲁·豪斯 :
视觉搜索中的有界最优状态估计和控制:解释分心比效应。 CogSci公司 2013 [第12条] 迈克尔·费里 , 多里特·比尔曼 , 陈秀丽 , 安德鲁·豪斯 , 理查德·刘易斯 , 兰斯·雪莉 , 萨汀德·辛格 :
将环境与安全关键接口设计中的评估联系起来。 HCI(1) 2013 : 193-202 [c11] 郭晓晓 , 萨汀德·辛格 , 理查德·刘易斯 :
转入长寿代理人的奖励映射。 NIPS公司 2013 : 2130-2138 2012 [第10条] 杰舒亚·布拉特曼 , 萨汀德·辛格 , 乔纳森·索格 , 理查德·刘易斯 :
强有力的缓解措施:在寻求好回报的同时嵌套搜索好政策。 美国原子能机构 2012 : 407-414 【c9】 刘冰耀 , 萨汀德·辛格 , 理查德·刘易斯 , 秦世音 :
多智能体团队中的最佳奖励。 ICDL-EPIROB接口 2012 : 1-8 [i1] 乔纳森·索格 , 萨汀德·辛格 , 理查德·刘易斯 :
近似贝叶斯强化学习的基于方差的奖励。 CoRR公司 abs/1203.3518 ( 2012 ) 2011 【c8】 乔纳森·索格 , 萨汀德·辛格 , 理查德·刘易斯 :
规划代理中的最优回报与Leaf-Evaluation启发式。 AAAI公司 2011 : 465-470 2010 [j5] 萨汀德·辛格 , 理查德·刘易斯 , 安德鲁·巴托 , 乔纳森·索格 :
内在动机强化学习:一个进化的视角。 IEEE传输。 自动。 门。 开发。 2 ( 2 ) : 70-82 ( 2010 ) 【c7】 乔纳森·索格 , 萨汀德·辛格 , 理查德·刘易斯 :
内部奖励缓解了代理人的局限性。 ICML公司 2010 : 1007-1014 【c6】 乔纳森·索格 , 萨汀德·辛格 , 理查德·刘易斯 :
通过在线梯度上升奖励设计。 NIPS公司 2010 : 2190-2198 【c5】 乔纳森·索格 , 萨汀德·辛格 , 理查德·刘易斯 :
近似贝叶斯强化学习的基于方差的奖励。 阿拉伯联合酋长国 2010 : 564-571
2000 – 2009
2009 【j4】 罗伯特·马里耶三世 , 约翰·莱尔德 , 理查德·刘易斯 :
认知行为和情感的计算统一。 认知。 系统。 物件。 10 ( 1 ) : 48-69 ( 2009 ) 2008 [j3] 什拉文·瓦西什 , 斯文·布吕索 , 理查德·刘易斯 , 海纳·德伦豪斯 :
处理极性:不语法如何侵入语法。 认知。 科学。 32 ( 4 ) : 685-712 ( 2008 ) 2007 [第1页] 安德鲁·豪斯 , 理查德·刘易斯 , 阿隆索·H·维拉 :
有限理性分析:对渐进性能的约束。 认知系统的集成模型 2007 : 403-410 2006 【c4】 凯瑟琳·恩格 , 理查德·刘易斯 , 艾琳·托林格 , 艾琳娜·朱 , 安德鲁·豪斯 , 阿隆索·H·维拉 :
自动生成行为预测,并根据具体绩效目标进行战略性调整。 芝加哥 2006 : 621-630 2005 [注2] 理查德·刘易斯 , 什拉文·瓦西什 :
一种基于激活的句子处理模型,作为熟练的记忆检索。 认知。 科学。 29 ( 三 ) : 375-419 ( 2005 ) 【c3】 艾琳·托林格 , 理查德·刘易斯 , 麦柯迪 , 普雷斯顿-托林格 , 阿隆索·H·维拉 , 安德鲁·豪斯 , 劳拉·佩尔顿 :
支持在多个技能水平上有效开发认知模型:探索基于约束建模的最新进展。 芝加哥 2005 : 411-420 2004 【c2】 阿隆索·H·维拉 , 安德鲁·豪斯 , 麦柯迪 , 理查德·刘易斯 :
预测熟练交互认知的约束满足方法。 芝加哥 2004 : 121-128 【c1】 理查德·刘易斯 , 阿隆索·H·维拉 , 安德鲁·豪斯 :
理解技能构成的基于约束的方法。 国际化学品管理委员会 2004 : 148-153
1990 – 1999
1993 [j1] 大卫·M·斯泰尔 , 理查德·刘易斯 , 吉尔·费恩·雷曼 , 安娜·扎切尔 :
在集成智能系统中组合多个知识源。 IEEE专家 8 ( 三 ) : 35-44 ( 1993 )