张超;沙赫扎德·戈洛米;黛巴伦·卡尔;阿鲁内什州辛哈;马尼什·贾恩;戈亚尔,瑞波;米林德·塔姆贝 与罪犯保持同步:针对适应性机会主义罪犯设计巡逻分配的扩展研究。 (英语) Zbl 1406.91066号 游戏 7,第3号,第15号论文,27页(2016年). 摘要:最近,博弈论方法被用于模拟巡逻人员对城市地区机会主义犯罪的威慑效果。这一领域的一个主要挑战是为机会主义罪犯的行为建模。与执行周密计划的战略攻击者(如恐怖分子)相比,机会主义犯罪分子在计划攻击时战略性较弱,而在根据其对巡逻人员任务的了解执行周密的计划时更为灵活。本文旨在设计一种针对城市机会主义犯罪分子的最优警察巡逻策略。我们的方法由两个主要部分组成:学习机会主义罪犯的模型(以及他或她如何应对巡逻),然后根据这个学习模型规划最佳巡逻。规划部分通过使用罪犯如何应对巡逻的信息,考虑了警察和罪犯之间的战略博弈互动。更详细地说,首先,我们提出了两类机会主义犯罪建模模型。第一类模型以马尔可夫链的形式学习防御策略和犯罪分布之间的关系。第二类模型将罪犯和巡逻人员的互动表示为动态贝叶斯网络(DBN),罪犯的数量表示为未观察到的隐藏状态。为此,我们:(i)应用标准算法,例如期望最大化(EM),来学习DBN的参数;(ii)修改DBN表示,允许模型的紧凑表示,从而在用于修改后的DBN时提高EM算法的学习精度和学习速度。这些修改利用了问题的结构,并使用独立性假设分解大型联合概率分布。接下来,我们提出一种迭代学习和规划机制,定期更新对手模型。通过将我们的学习算法应用于从位于美国加利福尼亚州洛杉矶的南加州大学(USC)警察局获得的犯罪活动的真实数据集,我们证明了学习算法的效率。与警察部门部署的实际战略相比,我们预计使用我们的规划战略将大大降低犯罪率。与只学习一次和规划相比,我们还展示了使用迭代规划和学习机制在模拟中预防犯罪方面的改进。最后,我们介绍了一个基于网络的软件,用于推荐巡逻策略,该软件目前部署在南加州大学。在不久的将来,我们的学习和规划算法计划与此软件集成。这项工作是与南加州大学警察局合作完成的。 MSC公司: 91A26型 博弈论中的理性与学习 68T05型 人工智能中的学习和自适应系统 91D99型 数学社会学(包括人类学) 90B36型 运筹学中的随机调度理论 60J20型 马尔可夫链和离散时间马尔可夫过程在一般状态空间(社会流动、学习理论、工业过程等)上的应用 关键词:安全游戏;最优化;博弈论 软件:PRMLT公司 PDF格式BibTeX公司 XML格式引用 \textit{C.Zhang}等人,Games 7,No.3,Paper No.15,27 p.(2016;Zbl 1406.91066) 全文: 内政部 参考文献: [1] Short,医学学士。;D'orsona,M.R。;巴苏尔,V.B。;蒂塔,G.E。;P.J.布兰廷汉姆。;贝尔托齐,A.L。;Chayes,L.B。;犯罪行为的统计模型;数学。模型方法应用。科学:2008年;第18卷,1249-1267·邮编:1180.35530 [2] 张,C。;蒋,A.X。;Short,医学学士。;P.J.布兰廷汉姆。;Tambe,M。;防范机会主义罪犯:新的游戏理论框架和算法;安全决策与博弈论:美国加利福尼亚州洛杉矶,2014,3-22. ·Zbl 1453.91038号 [3] Jain,M。;蔡,J。;Pita,J。;基金特维尔德,C。;Rathi,S。;Tambe,M。;Ordóñez,F。;为松懈的机场警察和联邦空中警察局进行随机巡逻规划的软件助理;接口:2010年;第40卷,267-290。 [4] 谢赫,E。;安,B。;Yang,R。;Tambe,M。;鲍德温,C。;DiRenzo,J。;莫尔,B。;迈耶,G。;保护:一个部署的博弈论系统,用于保护美国港口;第十一届自主代理和多代理系统国际会议记录:2012年西班牙巴伦西亚;第1卷,13-20。 [5] 陈,H。;西涌。;徐J.J。;王,G。;秦,Y。;Chau,M。;犯罪数据挖掘:一般框架和一些示例;计算机:2004年;第37卷,50-56页。 [6] 博扬,X。;科勒,D。;复杂随机过程的可追踪推理;第十四届人工智能不确定性会议论文集:1998年美国加利福尼亚州旧金山,33-42之间。 [7] Nath,S.V.公司。;基于数据挖掘的犯罪模式检测;2006年IEEE/WIC/ACM网络智能和智能代理技术研讨会国际会议记录,WI-IAT 2006研讨会:中国香港,2006,41-44. [8] De Bruin,J.S。;科克斯,T.K。;威斯康星州科斯特斯。;Laros,J.F。;Kok,J.N。;犯罪职业分析的数据挖掘方法;第六届数据挖掘国际会议,2006年ICDM:中国香港,171-177. [9] 奥特利,G。;埃沃特,B。;Zeleznikow,J。;警察决策支持系统:数据挖掘技术应用于软法医证据的经验教训;Artif公司。因特尔。法律:2006年;第14卷,35-100。 [10] 赫斯帕尼亚,J.P。;Prandini,M。;Sastry,S。;概率寻踪博弈:一步纳什方法;第39届IEEE决策与控制会议记录:2000年澳大利亚新南威尔士州悉尼;第3卷,2272-2277。 [11] Tambe,M;安全与博弈论:算法、部署系统、经验教训:英国剑桥,2011年·Zbl 1235.91005号 [12] 蒋,A.X。;尹,Z。;张,C。;Tambe,M。;克劳斯,S。;具有动态执行不确定性的安全巡逻博弈随机化;2013年自治代理和多代理系统国际会议记录:2013年美国明尼苏达州圣保罗,207-214. [13] Yang,R。;福特,B。;Tambe,M。;Lemieux,A。;针对非法偷猎者的野生动物保护的适应性资源分配;2014年自主代理和多代理系统国际会议记录:法国巴黎,2014年,453-460. [14] 巴西利科,北。;加蒂,N。;Amigoni,F。;具有任意拓扑结构的环境中机器人巡逻的领跑者-领跑者策略;第八届自主代理和多代理系统国际会议记录:匈牙利布达佩斯,2009年;第1卷,第57-64页。 [15] 北巴西利科。;加蒂,N。;罗西,T。;塞皮,S。;Amigoni,F。;将移动机器人在有对手存在的情况下巡逻的算法扩展到更真实的环境中;2009年IEEE/WIC/ACM网络智能和智能代理技术国际联合会议论文集:2009年美国华盛顿特区;第二卷,557-564。 [16] Blum,A。;哈特拉布,N。;公元Procaccia。;学习克服不安全感的最佳承诺;第28届神经信息处理系统年会论文集:。 [17] 马利克,A。;马西耶夫斯基,R。;塔,S。;McCullough,S。;艾伯特,D.S。;针对社区警务和执法的主动时空资源分配和预测视觉分析;视觉。计算。图表。:2014年;1863-1872年第20卷。 [18] 邓普斯特,A.P。;新墨西哥州莱尔德。;鲁宾,D.B。;基于EM算法的不完全数据最大似然估计;J.R.统计社会服务。B(Methodol.):1977年;第39卷,1-38页·Zbl 0364.62022号 [19] 毕晓普,C.M;模式识别与机器学习(信息科学与统计):塞考克斯,新泽西州,美国2006年·Zbl 1107.68072号 [20] Blumer,A。;埃伦菲赫特,A。;Haussler,D。;Warmuth,M.K。;奥卡姆剃刀;Inf.流程。信函:1987; 第24卷,377-380·Zbl 0653.68084号 [21] 阿吉,S.M。;R.J.McEliece。;广义分配律;IEEE传输。Inf.理论:2000;第46卷,第325-343页·Zbl 0998.65146号 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。