dblp:Laurent Orseau(劳伦特·奥尔索) https://dblp.org/pid/79/1040.html dblp个人页面RSS提要 2024年4月25日星期四01:11:02+0200 en-美国 每日的 1 根据CC0 1.0许可证发布 dblp@dagstuhl.de(dblp团队) dblp@dagstuhl.de(dblp团队) 计算机/计算机科学/出版物/书目 http://www.rssboard.org/rss-specification网站 https://dblp.org/img/logo.144x51.png网址资料来源:Laurent Orseauhttps://dblp.org/pid/79/1040.html14451 学习通用预测工具。https://doi.org/10.44850/arXiv.2401.144953,,,,,,,,,,:
学习通用预测工具。 CoRR公司 abs/2401.14953()]]>
https://dblp.org/rec/journals/corr/abs-2401-149532024年1月1日星期一00:00:00+0100
基于非平稳分布的记忆元学习。https://proceedings.mlr.press/v202/genewein23a.html,,,,,,,,,:
基于非平稳分布的记忆元学习。 ICML公司 :11173-11195]]>
https://dblp.org/rec/conf/icml/GeneweinDRWCDGO232023年1月1日,星期日00:00:00+0100
基于上下文模型的莱文树搜索。https://doi.org/10.24963/ijcai.2023/624,,:
基于上下文模型的莱文树搜索。 国际JCAI :5622-5630]]>
https://dblp.org/rec/conf/ijcai/OrseauHL232023年1月1日,星期日00:00:00+0100
基于非平稳分布的记忆元学习。https://doi.org/10.48550/arXiv.2302.03067,,,,,,,,,:
基于非平稳分布的记忆元学习。 CoRR公司 abs/2302.03067()]]>
https://dblp.org/rec/journals/corr/abs-2302-030672023年1月1日,星期日00:00:00+0100
基于上下文模型的莱文树搜索。https://doi.org/10.48550/arXiv.2305.16945,,:
基于上下文模型的莱文树搜索。 CoRR公司 abs/2305.16945()]]>
https://dblp.org/rec/journals/corr/abs-2305-169452023年1月1日星期日00:00:00+0100
凸极小化的线搜索。https://doi.org/10.48550/arXiv.2307.16560,:
凸极小化的线搜索。 CoRR公司 abs/2307.16560()]]>
https://dblp.org/rec/journals/corr/abs-2307-165602023年1月1日,星期日00:00:00+0100
语言建模是压缩。https://doi.org/10.48550/arXiv.2309.10668,,,,,,,,,,,:
语言建模是压缩。 CoRR公司 abs/2309.10668()]]>
https://dblp.org/rec/journals/corr/abs-2309-106682023年1月1日,星期日00:00:00+0100
使用AlphaZero和Tabu搜索寻找越来越大的极值图。https://doi.org/10.48550/arXiv.2311.03583,,,,,,,,,,,,,,,,,,:
使用AlphaZero和Tabu搜索查找越来越大的极值图。 CoRR公司 腹肌/2311.03583()]]>
https://dblp.org/rec/journals/corr/abs-2311-035832023年1月1日,星期日00:00:00+0100
使用增量学习和后视经验回放证明定理。https://proceedings.mlr.press/v162/aygun22a.html,,,,,,,,:
使用增量学习和后视经验回放证明定理。 ICML公司 :1198-1210]]>
https://dblp.org/rec/conf/icml/AygunAOGMFZPM222022年1月1日星期六00:00:00+0100
有保障的政策引导启发式搜索。https://doi.org/10.1609/aaai.v35i14.17469,:
有保障的政策引导启发式搜索。 AAAI公司 :12382-12390]]>
https://dblp.org/rec/conf/aaai/OrseauL212021年1月1日,星期五00:00:00+0100
从合成数据训练一阶定理证明者。https://arxiv.org/abs/20103.03798,,,,,,,,:
从合成数据训练一阶定理证明者。 CoRR公司 abs/2103.03798()]]>
https://dblp.org/rec/journals/corr/abs-2103-037982021年1月1日星期五00:00:00+0100
有保障的政策引导启发式搜索。https://arxiv.org/abs/203.11505,:
有保障的政策引导启发式搜索。 CoRR公司 abs/2103.11505()]]>
https://dblp.org/rec/journals/corr/abs-2103-115052021年1月1日,星期五00:00:00+0100
使用增量学习和后视经验回放证明定理。https://arxiv.org/abs/2112.10664,,,,,,,:
使用增量学习和后视经验回放证明定理。 CoRR公司 abs/2112.10664()]]>
https://dblp.org/rec/journals/corr/abs-2112-106642021年1月1日,星期五00:00:00+0100
与应用程序保持一致,实现无标度在线学习。https://arxiv.org/abs/2112.14586,:
与应用程序保持一致,实现无标度在线学习。 CoRR公司 abs/2112.14586()]]>
https://dblp.org/rec/journals/corr/abs-2112-145862021年1月1日星期五00:00:00+0100
在线学习奖励功能的陷阱。https://doi.org/10.24963/ijcai.2020/221,,,:
在线学习奖励功能的陷阱。 国际JCAI :1592-1600]]>
https://dblp.org/rec/conf/ijcai/ArmstrongLOL202020年1月1日,星期三00:00:00+0100
通过考虑未来任务避免副作用。https://proceedings.neurips.cc/paper/2020/hash/dc1913d422398c25c5f0b81cab94cc87-Abstract.html,,,,:
通过考虑未来任务避免副作用。 NeurIPS公司 ]]>
https://dblp.org/rec/conf/nips/KrakovnaONML202020年1月1日,星期三00:00:00+0100
对数修剪就是你所需要的。https://proceedings.neurips.cc/paper/2020/hash/1e9491470749d5b0e361ce4f0b24d037-Abstract.html,,:
对数修剪就是你所需要的。 NeurIPS公司 ]]>
https://dblp.org/rec/conf/nips/OrseauHR202020年1月1日,星期三00:00:00+0100
在线学习奖励功能的陷阱。https://arxiv.org/abs/2004.13654,,,:
在线学习奖励功能的陷阱。 CoRR公司 abs/2004.13654()]]>
https://dblp.org/rec/journals/corr/abs-2004-136542020年1月1日星期三00:00:00+0100
学习从合成定理证明。https://arxiv.org/abs/2006.11259,,,,,,,:
学习从合成定理证明。 CoRR公司 abs/2006.11259()]]>
https://dblp.org/rec/journals/corr/abs-2006-112592020年1月1日,星期三00:00:00+0100
对数修剪就是你所需要的。https://arxiv.org/abs/2006.12156,,:
对数修剪就是你所需要的。 CoRR公司 abs/2006.12156()]]>
https://dblp.org/rec/journals/corr/abs-2006-121562020年1月1日星期三00:00:00+0100
通过考虑未来任务避免副作用。https://arxiv.org/abs/2010.07877,,,,:
通过考虑未来任务避免副作用。 CoRR公司 abs/2010.07877()]]>
https://dblp.org/rec/journals/corr/abs-2010-078772020年1月1日,星期三00:00:00+0100
无模型规划研究。http://proceedings.mlr.press/v97/guez19a.html,,,,,,,,,,,,:
无模型规划研究。 ICML公司 :2464-2473]]>
https://dblp.org/rec/conf/icml/GuezMGKRWRSOEWS192019年1月1日,星期二00:00:00+0100
迭代预算指数搜索。https://doi.org/10.24963/ijcai.2019/174,,,,:
迭代预算指数搜索。 国际JCAI :1249-1257]]>
https://dblp.org/rec/conf/ijcai/HelmertLLOS192019年1月1日星期二00:00:00+0100
使用逐步相对可达性惩罚副作用。https://ceur-ws.org/Vol-2419/paper_1.pdf,,,:
使用逐步相对可达性惩罚副作用。 AIS安全@IJCAI ]]>
https://dblp.org/rec/conf/ijcai/KrakovnaOML192019年1月1日星期二00:00:00+0100
软贝叶斯(Soft-Bayes):为具有对数损失的专家组合设计。http://arxiv.org/abs/1901.02230,,:
软贝叶斯(Soft-Bayes):为具有对数损失的专家组合设计。 CoRR公司 abs/1901.02230()]]>
https://dblp.org/rec/journals/corr/abs-1901-022302019年1月1日星期二00:00:00+0100
无模型规划研究。http://arxiv.org/abs/1901.03559,,,,,,,,,,,,:
无模型规划研究。 CoRR公司 abs/1901.03559()]]>
https://dblp.org/rec/journals/corr/abs-1901-035592019年1月1日星期二00:00:00+0100
小心缩放:保证节点扩展的线性内存启发式搜索。http://arxiv.org/abs/1906.03242,,:
小心缩放:保证节点扩展的线性内存启发式搜索。 CoRR公司 abs/1906.03242()]]>
https://dblp.org/rec/journals/corr/abs-1906-032422019年1月1日星期二00:00:00+0100
迭代预算指数搜索。http://arxiv.org/abs/1907.13062,,,,:
迭代预算指数搜索。 CoRR公司 abs/1907.13062()]]>
https://dblp.org/rec/journals/corr/abs-1907-130622019年1月1日星期二00:00:00+0100
具有担保的单代理策略树搜索。https://proceedings.neurips.cc/paper/2018/hash/52c5189391854c93e8a0e1326e56c14f-Abstract.html,,,:
具有担保的单代理策略树搜索。 NeurIPS公司 :3205-3215]]>
https://dblp.org/rec/conf/nips/OrseauLLW182018年1月1日星期一00:00:00+0100
代理和设备:代理的相对定义。http://arxiv.org/abs/1805.12387,,:
代理和设备:代理的相对定义。 CoRR公司 abs/1805.12387()]]>
https://dblp.org/rec/journals/corr/abs-1805-123872018年1月1日星期一00:00:00+0100
使用相对可达性测量和避免副作用。http://arxiv.org/abs/1806.01186,,,:
使用相对可达性测量和避免副作用。 CoRR公司 abs/1806.01186()]]>
https://dblp.org/rec/journals/corr/abs-1806-011862018年1月1日星期一00:00:00+0100
具有担保的单代理策略树搜索。http://arxiv.org/abs/1811.10928,,,:
具有担保的单代理策略树搜索。 CoRR公司 abs/1811.10928()]]>
https://dblp.org/rec/journals/corr/abs-1811-109282018年1月1日星期一00:00:00+0100
软贝叶斯(Soft-Bayes):为具有对数损失的专家组合设计。http://proceedings.mlr.press/v76/orseu17a.html,,:
软贝叶斯(Soft-Bayes):为具有对数损失的专家组合设计。 中高音 :372-399]]>
https://dblp.org/rec/conf/alt/OrseauLL172017年1月1日,星期日00:00:00+0100
通过腐败的奖励渠道强化学习。https://doi.org/10.24963/ijcai.2017/656,,,:
通过腐败的奖励渠道强化学习。 国际JCAI :4705-4713]]>
https://dblp.org/rec/conf/ijcai/EverittKOL172017年1月1日,星期日00:00:00+0100
关于汤普森抽样和渐近最优性。https://doi.org/10.24963/ijcai.2017/688,,,:
关于汤普森抽样和渐近最优性。 国际JCAI :4889-4893]]>
https://dblp.org/rec/conf/ijcai/LeikeLOH172017年1月1日星期日00:00:00+0100
通过腐败的奖励渠道强化学习。http://arxiv.org/abs/1705.08417,,,,:
通过腐败的奖励渠道强化学习。 CoRR公司 abs/1705.08417()]]>
https://dblp.org/rec/journals/corr/EverittKOHL172017年1月1日,星期日00:00:00+0100
AI安全网格世界。网址:http://arxiv.org/abs/1111.09883,,,,,,,:
AI安全网格世界。 CoRR公司 abs/1711.09883()]]>
https://dblp.org/rec/journals/corr/abs-1711-098832017年1月1日,星期日00:00:00+0100
汤普森抽样在一般环境下是渐近最优的。http://auai.org/uai2016/proceedings/papers/20.pdf,,,:
汤普森抽样在一般环境下是渐近最优的。 阿联酋 ]]>
https://dblp.org/rec/conf/uai/LeikeLOH162016年1月1日,星期五00:00:00+0100
安全可中断代理。http://auai.org/uai2016/proceedings/papers/68.pdf,:
安全可中断代理。 阿联酋 ]]>
https://dblp.org/rec/conf/uai/OrseauA162016年1月1日,星期五00:00:00+0100
汤普森抽样在一般环境下是渐近最优的。http://arxiv.org/abs/1602.07905,,,:
汤普森抽样在一般环境下是渐近最优的。 CoRR公司 abs/1602.07905()]]>
https://dblp.org/rec/journals/corr/LeikeLOH162016年1月1日,星期五00:00:00+0100
k-CNF布尔函数的在线学习。http://ijcai.org/Abstract/15/543,,,:
k-CNF布尔函数的在线学习。 国际JCAI :3865-3873]]>
https://dblp.org/rec/conf/ijcai/WenessHOB15网址2015年1月1日星期四00:00:00+0100
通用知识搜索代理。https://doi.org/10.1016/j.tcs.2013.09.025:
通用知识搜索代理。 西奥。计算。科学。 519:127-139()]]>
https://dblp.org/rec/journals/tcs/Orseau142014年1月1日星期三00:00:00+0100
多时隙框架:多个可复制AI的形式化模型。https://doi.org/10.1007/978-3-319-09274-4_10:
多时隙框架:多个可复制AI的形式化模型。 AGI公司 :97-108]]>
https://dblp.org/rec/conf/agi/Orseau142014年1月1日星期三00:00:00+0100
电信通用智能代理。https://doi.org/10.1007/978-3-319-09274-4_11:
传送通用智能代理。 AGI公司 :109-120]]>
https://dblp.org/rec/conf/agi/Orseau14a2014年1月1日星期三00:00:00+0100
2014年8月1日至4日,加拿大魁北克省魁北克市,第七届人工智能国际会议,AGI 2014。诉讼程序。https://doi.org/10.1007/978-3-319-09274-4,,:
2014年8月1日至4日,加拿大魁北克省魁北克市,第七届人工智能国际会议,AGI 2014。诉讼程序。 计算机科学课堂讲稿8598中,施普林格 ,国际标准图书编号978-3-319-09273-7 [目录]]]>
https://dblp.org/rec/conf/agi/20142014年1月1日星期三00:00:00+0100
具有可计算时域函数的通用代理的渐近不可学习性。https://doi.org/10.1016/j.tcs.2012.10.014:
具有可计算时域函数的通用代理的渐近不可学习性。 西奥。计算。科学。 473:149-156()]]>
https://dblp.org/rec/journals/tcs/Orseau132013年1月1日星期二00:00:00+0100
用于随机环境的通用知识搜索代理。https://doi.org/10.1007/978-3-642-40935-6_12,,:
用于随机环境的通用知识搜索代理。 中高音 :158-172]]>
https://dblp.org/rec/conf/alt/OrseauLH132013年1月1日星期二00:00:00+0100
强化学习(Dagstuhl研讨会13321)。https://doi.org/10.4230/DagRep.3.8.1,,:
强化学习(达格斯图尔研讨会13321)。 达格斯图尔报告 (8):1-26()]]>
https://dblp.org/rec/journals/dagstuhl-reports/AuerHO132013年1月1日星期二00:00:00+0100
时空嵌入式智能。https://doi.org/10.1007/978-3-642-35506-6_22,:
时空嵌入式智能。 AGI公司 :209-218]]>
https://dblp.org/rec/conf/agi/OrseauR122012年1月1日,星期日00:00:00+0100
智能代理的内存问题。https://doi.org/10.1007/978-3-642-35506-6_23,:
智能代理的内存问题。 AGI公司 :219-231]]>
https://dblp.org/rec/conf/agi/OrseauR12a2012年1月1日,星期日00:00:00+0100
人工药物中的自我修饰和死亡率。https://doi.org/10.1007/978-3-642-22887-2_1,:
人工智能体的自我修饰与死亡。 AGI公司 :1-10]]>
https://dblp.org/rec/conf/agi/OrseauR112011年1月1日星期六00:00:00+0100
错觉、生存和智能代理。https://doi.org/10.1007/978-3-642-22887-2_2,:
错觉、生存和智能代理。 AGI公司 :11月20日]]>
https://dblp.org/rec/conf/agi/RingO112011年1月1日星期六00:00:00+0100
通用知识搜索代理。https://doi.org/10.1007/978-3-642-24412-4_28:
通用知识搜索代理。 中高音 :353-367]]>
https://dblp.org/rec/conf/alt/Orseau112011年1月1日星期六00:00:00+0100
具有静态先验的通用贪婪代理的最优性问题。https://doi.org/10.1007/978-3-642-16108-7_28:
具有静态先验的通用贪婪代理的最优性问题。 中高音 :345-359]]>
https://dblp.org/rec/conf/alt/Orseau10网址2010年1月1日,星期五00:00:00+0100
模拟算法:附加信息增加序列。(算法模拟:序列的在线增量学习)。https://hal.archives-ouvertes.fr/tel-0282025:
模拟算法:附加信息增加序列。(算法模拟:序列的在线增量学习)。法国雷恩1大学,]]>
https://dblp.org/rec/phd/hal/Orseau072007年1月1日星期一00:00:00+0100
通过模拟思考学习计数。http://ijcai.org/Processings/07/Papers/162.pdf:
通过模拟思考学习计数。 国际JCAI :1005-1010]]>
https://dblp.org/rec/conf/ijcai/Orseau07网址2007年1月1日星期一00:00:00+0100
短期记忆和强迫知识的再利用以实现泛化。https://doi.org/10.1007/11550907_7:
短期记忆和强迫知识的再利用以实现泛化。 ICANN(2) :39至44]]>
https://dblp.org/rec/conf/icann/Orseau052005年1月1日星期六00:00:00+0100