动物集体运动的贝叶斯逆强化学习

@文章{Schafer2020BayesianIR,title={集体动物运动的贝叶斯反向强化学习},author={Toryn L.J.Schafer和Christopher K.Wikle和Mevin B.Hooten},日志={ArXiv},年份={2020年},体积={abs/2009.04003},url={https://api.semanticscholar.org/CorpusID:221558169}}
本工作使用计算效率高的线性可解马尔可夫决策过程来学习控制集体运动的局部规则,以模拟自推进粒子(SPP)模型和捕获孔雀鱼种群的数据应用。

本文中的数字

基于生物行为的数据驱动政策学习方法:系统综述

本文综述了过去十年来数据驱动策略学习算法的发展,并根据方法的目的将其分为以下三类:(1)模仿学习,(2)反向强化学习,和(3)因果策略学习。

一种基于同伴原则的群体模型及其在鱼群分析中的应用

提出了一个基于简单规则的模型,并将其扩展为一组具体的规则,建立了二维和三维群体模型,这表明同伴允许原则可以揭示鱼群运动的本质。

空间和时空数据的统计深度学习

概述了用于建模空间和时空数据的传统统计和机器学习观点,重点介绍了最近为潜在过程、数据和参数规范开发的各种混合模型。

通过Bellman分数估计理解和采用理性行为

这项工作的目的是解决一类寻求从实证中理解和采用理性行为的问题,并将这些问题大致分为四类:奖励识别、反事实分析、行为模仿和行为模仿。

基于层次非线性时空代理的动物集体运动模型

一个通用的层次结构框架,用于建模多阶段的集体运动行为,允许在缺少观测值的情况下对动物位置进行离散时间预测,并开发了用于估计的近似贝叶斯计算算法。

鸟群行为的反向强化学习

通过应用反向强化学习技术恢复未知的奖励函数,本研究能够解释和再现鸽子群的行为,并提出了一种学习领导-跟随层次的方法。

基于Agent的逆向强化学习模型构建

实验结果表明,该方法可以提取规则,并构建一个基于agent的模型,该模型具有丰富而简洁的agent行为规则,同时仍保持聚合级属性。

分层贝叶斯逆强化学习

提出了一种分层贝叶斯框架,该框架包含了以前的大多数IRL算法,并对专家行为的次优性进行建模,并以高精度预测驾驶行为。

具有空间点过程相互作用的动物运动动力学模型

这项工作提出了一种方法,通过在加权分布框架内用空间点-过程交互函数扩充动态边缘运动模型,对依赖运动进行建模,并开发了双Metropolis–Hastings算法来执行贝叶斯推理。

基于Agent的动物运动和选择推理

这项工作提出了一个建模框架,该框架利用了这些形式的数据,并建立在之前有关动物运动定量分析的研究基础上,提供了对居住和运动的环境驱动因素以及资源选择的额外见解,同时适应了路径不确定性。

动物运动的连续时间离散空间模型

提出了一种动物运动的连续时间离散空间(CTDS)模型,该模型可以使用标准广义线性建模(GLM)方法进行拟合,从而可以对基于位置的运动驱动因素和方向驱动因素进行联合建模。

最大熵逆强化学习

开发了一种基于最大熵原理的概率方法,该方法在提供与现有方法相同的性能保证的同时,为决策序列提供了定义良好的全局归一化分布。

基于代理原则的集体运动建模:一般框架和行军蝗虫案例

具有明确建模感官能力的个体的详细建模,决定如何对感官输入做出反应的内部机制以及根据以往经验修改这些反应的规则表明,学习基于agent的模型是研究更广泛的问题的有力工具,这些问题涉及集体行为和一般动物代理。
...