{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期部分”:[[2024,9,7]],“日期时间”:“2024-09-07T02:26:20Z”,“时间戳”:1725675980964},“引用计数”:25,“发布者”:“IEEE”,“内容域”:{“域”:[],“交叉标记限制”:false},”短容器时间“:[]”,“published-print“:{”日期部分“:[[2017,11]]},“DOI”:“10.1109\/svr.2017.24”,“type”:“proceedings-article”,“created”:{“date-parts”:[[2017,11,20]],“date-time”:“2017-11-20T16:34:42Z”,“timestamp”:1511195682000},“page”:”120-126“,”source“:”Crossref“,”is-referenced-by-count“:7,”title“:[”Towards Playing a 3D First-Person Shooter Game Using a Classification Deep Neural Network Architecture“],”prefix“:“10.1109”,“卷”:“48”,“作者”:[{“给定”:“保罗·布鲁诺·S”,“家族”:“塞拉菲姆”,“序列”:“第一”,“从属关系”:[]},{“给出”:“尤里·列农·B”,“家庭”:“诺盖拉”,“顺序”:“附加”,“附属关系”:[]}阿尔坎特”,“家族”:“内托”,“序列”:“additional”,“affiliation”:[]}],“member”:“263”,“reference”:[{“key”:“ref10”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/5.726791”},{“密钥”:“ref11”,“doi-asserte-by”:“publisher”,“DI:”10.1038\/nature14539“},“journal-title”:“使用神经网络的机器人强化学习”,“年份”:“1993”,“author”:“lin”,”key“:“ref12”},{“key”:“ref13”,“首页”:“1”,“卷”:“48”,“作者”:“mnih”,“年份”:“2016”,“新闻标题”:“深度强化学习的异步方法”},{“key”:“ref14”,“文章标题”:”用深度强化学习播放atari“,”卷“:”abs 1312 5602“,”作者“:”mnih“,”年份“:”2013“,”新闻标题“CoRR”}、{“密钥”:“ref15”,“doi-asserted-by”:“publisher”,“doi”:“10.1038\/nature14236”},{“journal-title”:“深度强化学习的大规模并行方法”,“首页”:“14”,“年份”:“2015”,“作者”:“nair”,“key”:“ref16”}、{“key“:”ref17“,”first-page“:”807“,”article-title“:”校正线性单位改善受限boltzmann机器“,”author“:”nair“,”年份“:”2010“,”journal-title“:《第27届国际机器学习大会论文集》,{“key”:“ref18”,“首页”:“381”,“文章标题”:“神经网络中的交叉熵误差函数:预测汽油需求”,“作者”:“nasr”,“年份”:“2002”,“期刊标题”:“第十五届佛罗里达国际人工智能研究会会议论文集AAAI出版社”},{“key”:“ref19”,“article-title”:“Actor-mimic:深度多任务和转移强化学习”,“volume”:《abs 1511 6342》,“author”:“parisotto”,“year”:“2015”,“journal-title“:”CoRR“}”,{《journal-title》:“国际学习表征大会(ICLR)议事录”,“文章标题”:“参数化动作空间中的深度强化学习”,“年份”:“2016年”,“作者”:“hausknecht”,“key”:“ref4”},{“密钥”:“ref3”,“首页”:“2094”,“论文标题”::“第三十届AAAI人工智能会议论文集(AAAI’16)AAAI出版社”},{“key”:“ref6”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/CIG.2016.7860433”},“volume”:“abs 1609 5521”,“author”:“lample”,“year”:“2016”,“journal-title”:“CoRR”},{“key”:”ref7“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/TPAMI.2005.127“},”{“密钥”:“ref2”,“首页”:“2613”,“article-title“:”Double q-learning“,”author“:”hasselt“,”year“:”2010“,”journal-title“:”“Advances in Neural Information处理系统23“},{“key”:“ref9”,“doi-asserted-by”:“publisher”,“doi”:“10.1162\/neco.1989.1.4.541”},{“key”:“ref1”,“first page”::“315”,“article-title”:“Deep sparse rectivert neural networks”,“volume”:”15“author”:“glorot”,“year”:“2011”,“journal title”:“第十四届国际人工智能与统计会议论文集ser Proceedings of Machine Learning Research”},{“key”:“ref20”,“first-page”:“1929”,“article-title”:“Dropout:A simple way to prevent neural networks from overfitting”,“volume”:《15》,“author”:“srivastava”,“year”:“2014”,“journal-tittle”:“机器学习研究杂志”},{“Journal-title”:“COURSERA Neural Networks for Machine Learning”,“文章标题”:“讲座6.5-RmsProp:用梯度最近大小的运行平均值除以梯度”,“年份”:“2012”,“作者”:“tieleman”,“key”:“ref22”},“key”:“ref21”},{“journal-title”:“深度强化学习的决斗网络架构”,“首页”:“1”,“年份”:“2016年”,“author”:“wang”,“keys”:“ref24”}:“第三十届国际机器学习会议论文集(ICML-13)”},{“新闻标题”:“从延迟的奖励中学习”,“年份”:“1989年”,“作者”:“watkins”,“key”:“ref25”}],“事件”:{“名称”:“2017年第十九届虚拟与增强现实研讨会(SVR)”,“开始”:{-“date-parts”:[2017,11,1]},“位置”:“Curitiba”,“结束”:{--“date-ports”:[2017,11,4]]}},“container-title”:[“2017年第19届虚拟与增强现实研讨会(SVR)”],“original-title“:[],“link”:[{“URL”:“http://\/xplorestaging.ieee.org\/ielx7\/8113862\/811402\/081144428.pdf?arnumber=8114428”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“ded”:{“date-parts”:[2020,2,6]],“date-time”:“2020-02-06T11:44:05Z”,“timestamp”:1580989445000},“score”:1,“resource”:{“primary”:{“URL”:“https:\/\/ieeexplore.iee.org\/document\/8114428\/”}},”subtitle“:[],”shorttitle“:[],”issued“:{”date-parts“:[[2017,11]]},‘references-count’:25,”URL“http://\/dx.doi”。org\/10.109\/svr.2017.24“,”relation“:{},”subject“:[],”published“:{”date-parts“:[[2017,11]]}}}