{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部件”:[[2024,4,16]],“日期-时间”:“2024-04-16T05:53:20Z”,“时间戳”:1713246800916},“引用-计数”:54,“发布者”:“MDPI AG”,“问题”:“7”,“许可证”:[{“开始”:{--“日期部件”:[2023,4,3]],03T00:00:00Z“,”时间戳“:1680480000000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\/\/creativecommons.org\/licenses\/by\/4.0\/”}],“资助者”:[{“name”:“纽约大学USDOT大学交通中心”,“award”:[“CNS-1828576”,“CNS-1544753”,“CS-1229185”,“CCF-1533564”,“CNS-1730396”,“GNS-1626098”]},{“name”:“DARPA PTG计划”}]content-domain“:{”域“:[],“crossmark-restriction”:false},“short-container-title”:[“Sensors”],“abstract”:“获取高质量数据是城市环境数字分析的一个重要障碍,包括计算机视觉和城市设计中的应用。从城市环境中高活动区域(尤其是十字路口)的传感器收集到的各种形式的数据,对于研究人员解释车辆、行人和建筑环境之间的动态关系来说,是宝贵的资源。在本文中,我们展示了纽约布鲁克林三个城市十字路口的高分辨率音频、视频和激光雷达数据集,总计近8个独特小时。这些数据是通过定制的可重构环境智能平台(REIP)传感器收集的,这些传感器具有准确同步多个视频和音频输入的能力。结果数据是新颖的,因为它们包括多模态、多角度、高分辨率和同步数据。我们演示了利用2014年数据的四种方法:(1)使用多个传感器和设备发现和定位被遮挡的物体;(2)使用视频和音频模式将音频事件与其各自的视觉表现相关联;(3)跟踪场景中每种类型物体随时间变化的数量;(4)使用多个同步摄像头视图测量行人速度。除这些用例外,我们的数据还可供其他研究人员进行与应用机器学习了解城市环境(现有数据集可能不足)相关的分析,例如行人-车辆交互建模和行人属性识别。此类分析有助于为城市感知和智能城市环境下的决策提供信息,包括无障碍城市设计和零愿景倡议<\/jats:p>“,”DOI“:”10.3390\/s23073710“,”type“:”journal-article“,”created“:{”date-parts“:[[2023,4,4]],”date-time“:”2023-04-04T06:03:00Z“,”timestamp“:1680588180000},”page“:“,”卷“:”23“,”author“:[{”ORCID“:”http://\/ORCID.org\/00000-0002-2975-635X“,”authenticated-ORCID“:false,”given“:“Yurii”,”family“:”Piadyk“,”sequence“:”first“,”affiliation“:[}”name“:”Tandon School of Engineering,New York University,Brooklyn,NY 11201,USA“}]},”giving“:”Joao“,”faily“:美国纽约布鲁克林纽约大学坦登工程学院“}]},{“given”:“Ethan”,“family”:“Brewer”,“sequence”:“additional”,“affiliation”:[{“name”:“美国纽约布鲁克林纽约大学坦登工程学院”}]}.,{纽约大学坦登工程学院,布鲁克林,纽约11201,美国“}]},{“给定”:“Kaan”,“family”:“Ozbay”,“sequence”:“additional”,“affiliation”:[{“name”:“Tandon School of Engineering,New York University,Brooklyn,NY11201,USA”}]},{“给定”:“Murugan”,“family”:“Sankaradas”,“sequence”:“additional”,“affiliation”:[{“name”:“NEC Laboratories America,Inc.,Princeton,NJ 08540,USA“}]},{“given”:“Srimat”,“family”:“Chakradhar”,“sequence”:“additional”,“affiliation”:[{“name”:“NEC Laburatories Amrica,Inc.,普林斯顿,美国新泽西州08540”}]},}“ORCID”:”http://\/ORCID.org\/00000-0003-2452-2295“,”authenticated ORCID“:false,”given“gived”:“Claudio”,“家族”:“Silva”,“序列”:“附加”,“”affiliation“:[{”name“:”Tandon School of Engineering,New York University,Brooklyn,NY 11201,USA“}]}],”member“:”1968“,”published-on-line“:{”date-parts“:[2023,4,3]]},”reference“:[}”key“:”ref_1“,”doi-asserted-by“:”crossref“,“first page”:“74”,“doi”:“10.1109\/MC.2022.3206273”,“article-title”:“智能城市十字路口:未来大都市的智能节点”,“卷”:“55”,“作者”:“安格斯”,“年份”:“2022年”,“新闻标题”:“计算机”},{“key”:“ref_2”,“非结构化”:“世界卫生组织(2023年1月31日)。全球道路安全状况报告。在线阅读:https:\/\/www.who.int\/publications\/i\/item\/97892415684.”}、{“密钥”:“ref_3“,“doi-asserted-by”:“crossref”,“unstructured”:“Signencea,B.I.,Stanciu,R.I.,and C\u0103leanu,C.D.(2021)。基于深度学习的行人轨迹预测方法综述。传感器,21.“,”DOI“:”10.3390\/s21227543“},{“key”:“ref_4”,“DOI-asserted-by”:“crossref”,“unstructured”:“Ballardini,A.L.,Hernandez Saz,A.,Carrasco Limeros,S.,Lorenzo,J.,Parra Alonso10.3390\\s21186269“},{”key“:”ref_5“,”doi断言者“:”crossref“,”非结构化“:”Piadyk,Y.,Steers,B.,Mydlarz,C.,Salman,M.,Fuentes,M.,Khan,J.,Jiang,H.,Ozbay,K.,Bello,J.P.和Silva,C.(2022)。REIP:快速传感器网络原型的可重构环境智能平台和软件框架。传感器,22.“,”doi“:”10.3390\/s22103809“},{“key”:“ref_6”,“unstructured”:“谷歌有限责任公司(2023年2月20日)。谷歌街景。在线获取:https:\\/www.Google.com/streetview\/.”},},“key“:”ref_7“,”doi-asserted-by“:”crossref“,”unstructure“:”Warburg,F.,Hauberg,S.,L\u00f3pez-Antequera,M.,Gargalo,P.,Kuang,Y.,and Civera,J.(2020年1月13日\u201319)地图街道级别序列:用于终身位置识别的数据集。2020 IEEE计算机视觉和模式识别(CVPR)会议记录,美国华盛顿州西雅图”,“DOI”:“10.1109”,{“key”:“ref_8”,“DOI-asserted-by”:“crossref”,“unstructured”:“Miranda,F.,Hosseini,M.,Lage,M.、Doraiswamy,H.、Dove,G.和Silva,C.T.(2020年1月20日,201330)城市马赛克:使用大比例尺图像数据对街道景观进行视觉探索。2020年CHI计算机系统人为因素会议论文集,美国纽约州纽约市”,“DOI”:“10.1145\/3313831.3376399”},{“key”:“ref_9”,“unstructured”:“Cartwright,M.,Cramer,J.,M\u00e9ndez,A.E.M.,Wang,Y.,Wu,H.,Lostanlen,V.,Fuentes,M.、Dove,G.、Mydlarz,C.和Salamon,J.(2020)SONYC-UST-V2:一个具有时空背景的城市声音标记数据集。arXiv公司。“},{”key“:”ref_10“,”doi-asserted-by“:”crossref“,”unstructured“:”Fuentes,M.,Steers,B.,Zinemanas,P.,Rocamora,M.、Bondi,L.、Wilkins,J.、Shi,Q.、Hou,Y.、Das,S.和Serra,X.(2022年1月23日\u201327)《城市声光:2013年视听城市场景理解的数据集和基准》。ICASSP 2022\u20132022 IEEE声学、语音和信号处理国际会议(ICASSP)会议记录,新加坡。“,”DOI“:”10.1109\\ICASSP43922.2022.9747644“},{”key“:”ref_11“,”DOI断言“:”crossref“,”非结构化“:”Geiger,A.,Lenz,P.,and Urtasun,R.(2012年1月16日\u201321)。我们准备好进行自动驾驶了吗?KITTI视觉基准套件。2012年IEEE计算机视觉和模式识别会议论文集,美国罗得岛普罗维登斯。“,”DOI“:”10.1109\/CVPR.2012.6248074“},{“key”:“ref_12”,“DOI-asserted-by”:“crossref”,“unstructured”:“Caesar,H.,Bankiti,V.,Lang,A.H.,Vora,S.,Liong,V.E.,Xu,Q.,Krishnan,A.,Pan,Y.,Baldan,G.,and Beijbom,O.(2019年1月15日\u201319).nuScenes:用于自动驾驶的多模式数据集。IEEE计算机视觉和模式识别会议论文集,美国加利福尼亚州长滩”,“DOI”:“10.1109”,{“key”:“ref_13”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sun,P.、Kretzschmar,H.、Dotiwalla,X.、Chouard,A.、Patnaik,V.、Tsui,P.,Guo,J.、Zhou,Y.、Chai,Y.和Caine,B.(2019年1月15日\u201319)。自动驾驶感知的可扩展性:Waymo开放数据集。IEEE计算机视觉和模式识别会议记录,美国加利福尼亚州长滩。”,“DOI”:“10.1109”,“CVPR42600.2020.00252”},{“key”:“ref_14”,“DOI-asserted-by”:“crossref”,”first page“:”506“,”DOI“:”10.1016\/j.future.2020.07.025“,”article-title“:”协作智能交通系统的新型多视角行人检测数据库”,“卷”:“113”,“作者”:“阿鲁阿尼”,“年份”:“2020年”,“新闻标题”:“未来一代”。计算。系统。“},{”key“:”ref_15“,”doi-asserted-by“:”crossref“,”unstructured“:”Braun,M.,Krebs,S.,Flohr,F.,and Gavrila,D.M.(2018)。EuroCity Persons Dataset:A Novel Benchmark for Object Detection。arXiv.“,”doi“:”10.1109\/TPAMI.2019.2897684Rasouli,A.、Kotseruba,I.、Kunic,T.和Tsotsos,J.(11月,1月27日)。PIE:用于行人意图估计和轨迹预测的大规模数据集和模型。2019 IEEE计算机视觉国际会议(ICCV)会议记录,韩国首尔。“,”DOI“:”10.1109\/ICCV.2019.00636“},{”key“:”ref_17“,”DOI-asserted-by“:”crossref“,”unstructured“:”Singh,K.K.,Fatahalian,K.,and Efros,A.A.(2016年1月7日\u201310)KrishnaCam:使用纵向、单人、以自我为中心的数据集进行场景理解任务。2016年IEEE计算机视觉应用冬季会议论文集(WACV),美国纽约州普莱西德湖.MEVA:用于活动检测的大型多视图、多模式视频数据集。IEEE计算机视觉应用冬季会议论文集,美国科罗拉多州雪马村”,“DOI”:“10.1109”,{“key”:“ref_19”,“first-page”:“112”,“article-title”:“评估多类多目标视频跟踪性能的数据集”,“volume”:”volume 10202“,“author”:“Chakraborty”,“year”:“2017”,“journal-title“:“自动目标识别程序XXVII”},{“key”:“ref_20”,“doi-asserted-by”:“crossref”,“unstructured”:“Cordts,M.,Omran,M.、Ramos,S.、Rehfeld,T.、Enzweiler,M.和Benenson,R.,Franke,U.、Roth,S.和Schiele,B.(2016年1月27日\u201330)用于语义城市场景理解的城市景观数据集。IEEE计算机视觉和模式识别会议论文集,美国内华达州拉斯维加斯”,“DOI”:“10.1109\/CVPR.2016.350”},{“key”:“ref_21”,“unstructured”:“Neumann,L.,Karg,M.,Zhang,S.,Scharfenberger,C.,Piegert,E.,Mister,S.、Prokofyeva,O.,Thiel,R.,Vedaldi,A.,and Zisserman,A.(2018年1月2\u20136)夜猫子:夜间行人数据集。亚洲计算机视觉会议记录,澳大利亚西澳大利亚州珀斯。“},{”key“:”ref_22“,”doi-asserted-by“:”crossref“,”unstructured“:”Dahmane,K.,Essoukri Ben Amara,N.,Duthon,P.,Bernardin,F.,Colomb,M.,and Chausse,F.(2016年1月18日\u201320)Cerema行人数据库:用于评估计算机视觉行人探测器的恶劣天气条件下的特定数据库。2016年第7届国际电子科学、信息与通信技术会议(SETIT)会议记录,突尼斯哈马马特。“,”DOI“:”10.1109\/SETIT.2016.7939916“},{”key“:”ref_23“,”DOI-asserted-by“:”crossref“,”first page“:“18”,“DOI”:“10.1007\/s43762-021-00019-6”,“article-title”:“从街道级图像中自动检测和放置道路对象”,“volume”:“1”,“author”:“Zhang”,“year”:“2019”,“journal-title“:”Compute.Urban Sci.“}”,{“key”:”ref_2 4“,”DOI-asserted-by“:”crossref“,”first page“:”18380“,”DOI“:”10.1038\/s41598-022-22630-1“,”article-title“:”使用街道级图像和加拿大七个城市的深度学习预测步行上班”,“volume”:“12”,“author”:“Doiron”,“year”:“2022”,“journal-title”:“Sci”。Rep.“},{“key”:“ref_25”,“doi asserted by”:“crossref”,“unstructured”:“Zhao,H.,Shi,J.,Qi,X.,Wang,X.,and Jia,J.(2016).金字塔场景分析网络.arXiv..”,“doi”:“10.1109\/CVPR.2017.660”},{“key”:“ref_26”,“unstructured”:“Redmon,J.,and Farhadi,A.(2018).YOLOv3:An Incremental Improvement.arXiv..”},{“key”:“ref_27”,doi asserted by“:”crossref”,“非结构化”:“Charitidis,P.,Moschos,S.,Pipertzis,A.,Theologou,I.J.,Michailidis,M.,Doropoulos,S.、Diou,C.和Vologiannidis,S.(2023)。StreetScouting:一个深度学习平台,用于从街道级图像中自动检测和标记城市特征。申请。科学。,13.“,”DOI“:“10.3390\/app13010266”},{“key”:“ref_28”,“DOI-asserted-by”:“crossref”,“unstructured”:“Cai,Z.,and Vasconcelos,N.(2017).级联R-CNN:深入高质量对象检测.arXiv.”,“DOI”:“10.1109\/CVPR.2018.00644”}Deng,J.、Guo,J.和Zhou,Y.、Yu,J.,Kotsia,I.以及Zafeiriou,S.(2019年)。RetinaFace:野生单阶段密集面部定位。arXiv公司。“,”DOI“:”10.1109\/CVPR42600.2020.00525“},{”key“:”ref_30“,”DOI-asserted-by“:”crossref“,”unstructured“:”Zhang,Y.,Sun,P.,Jiang,Y.、Y.,Yu,D.,Yuan,Z.,Luo,P.、Liu,W.,and Wang,X.(2021)。ByteTrack:通过关联每个检测框进行多对象跟踪。arXiv.“,”DOI“:DOI-asserted-by“:”crossref”,“非结构化”:“Xue,F.,Zhuo,G.,Huang,Z.,Fu,W.,Wu,Z.和Ang,M.H.(2020)。面向自动驾驶应用的分层自监督单目绝对深度估计。arXiv公司。“,”DOI“:”10.1109\/IROS45743.2020.9340802“},{”key“:”ref_32“,”DOI断言者“:”crossref“,”非结构化“:”Chen,L.,Zhu,Y.,Papandreou,G.,Schroff,F.,and Adam,H.(2018)。用于语义图像分割的具有惊人可分离卷积的编码器解码器。arXiv.“,”DOI“:”10.1007\/978-3-030-01234-2_49“},{”key“:”ref_33“,”DOI断言者“:”crossref“,”非结构化“:”Sukel,M.、Rudinac,S.和Worring,M.(2020年1月8日\u201311)。城市目标检测工具:收集和分析街道级图像的系统。2020年多媒体检索国际会议论文集,美国纽约州纽约市,爱尔兰都柏林。ICMR\u201920.“,”DOI“:”10.1145\/3372278.3390708“},{“key”:”ref_34“,”DOI-asserted-by“:”crossref“,“first page”:“101915”,“DOI”:“10.1016\/j.compenvurbsys.2022.10195”,“article-title”:“从街景图像中感知城市声景”,“volume”:“99”,“author”:“Zhao”,“year”:“2023”,“journal-title“:”Compute.Environ.Urbsys.系统“},{”键“:”ref_35“,”doi-asserted-by“:”crossref“,”first page“:”144“,“doi”:“10.1016\/j.isprsjprs.2021.01.016”,“article-title”:“利用深度学习和街道级图像绘制城市街道网络上的树木地图”,“volume”:“175”,“author”:“Lumnitz”,“year”:“2021”,“journal-title“:”ISPRS j.Photogram。远程。Sens.“},{”key“:”ref_36“,”unstructured“:”Tokuda,E.K.,Lockerman,Y.,Ferreira,G.B.A.,Sorrelgreen,E.,Boyle,D.,Cesar,R.M.,and Silva,C.T.(2018)。使用移动传感器和计算机视觉估计行人密度的新方法。arXiv.“}10.1016\/j.compenvurbsys.2020.101481“,“article-title”:“使用街景图像估计行人流量:大规模验证测试”,“量”:“81”,“作者”:“陈”,“年份”:“2020”,“日志标题”:“计算”。环境。城市系统。“},{”key“:”ref_38“,”unstructured“:”Nassar,A.S.(2021)。学习使用多个视图绘制街边对象。[布列塔尼南方大学博士论文].“}”,{“key”:“ref_39”,“doi-asserted-by”:“crossref”,“first page”:”24126“,”doi“:”10.1109\/TITS.2022.3205676“,”article-title“:”行人轨迹预测方法综述:比较深度学习和基于知识的方法”,“卷”:“23”,“作者”:“Korbmacher”,“年份”:“2022年”,“期刊标题”:“IEEE Trans。智力。运输。系统。“},{”key“:”ref_40“,”doi-asserted-by“:”crossref“,”unstructured“:”Tordeux,A.,Chraibi,M.,Seyfried,A.,and Schadschneider,A.(2018).使用人工神经网络预测行人速度.arXiv.“,”doi“:”10.1007\/978-3030-11440-4_36“}”,{Ahmed,S.、Huda,M.N.、Rajbhandari,S.,Saha,C.、Elshaw,M.和Kanarachos,S.(2019年)。自动车辆行人和骑车人检测和意图估计:一项调查。申请。科学。,9.“,”DOI“:”10.3390\/app9112335“},{“key”:“ref_42”,“DOI-asserted-by”:“crossref”,“unstructured”:“Girshick,R.B.(2015).Fast R-CNN.arXiv.”,“DOI”:“10.1109\/ICCV.2015.169”},“key“:”ref_43“,”first page“:“1497”,“article-title”:“Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks”,“volume”:“28”,“author”“:”任“,”年份“:”2015“,”journal-title“:”高级神经信息处理。系统。“},{”key“:”ref_44“,”doi-asserted-by“:”crossref“,”unstructured“:”Liu,W.,Angelov,D.,Erhan,D.,Szegedy,C.,Reed,S.E.,Fu,C.,and Berg,A.C.(2015).SSD:Single Shot MultiBox Detector.arXiv.“,”doi“:”10.1007\/978-3319-46448-0_2“I“:”10.1016\/j.trpro.2021.12.069“,”article-title“:”应用深度学习技术预测带有倒计时信号计时器的十字路口的行人行为“,”volume“:”60“,”author“:”Fourkiotis“,”year“:”2022“,”journal-title”:“Transp。Res.Procedia“},{”key“:”ref_46“,”doi-asserted-by“:”crossref“,”first page“:“1”,”doi“:”10.1145\/3362069“,”article-title“:”Streetview Imagery中的道路安全特征映射:深度学习方法“,”volume“:1”,“author”:“Sainju”,“year”:“2020”,“journal-title”:“ACM\/IMS Trans.Data Sci.”},”{“key”:“ref_47”,“doi-assert-by“:”crossref“,”非结构化”:“Wang,Y.、Liu,D.和Luo,J.(2022)。使用多个深度学习和街景图像识别和改进非机动交通中的危险场景。国际环境杂志。Res.Public Health,19.“,”DOI“:”10.3390\/ijerph192114054“},{“key”:“ref_48”,“unstructured”:“(2023年2月20日).GStreamer。在线获取:https:\/\/GStreamer.freedesktop.org\/.”},“{”key“:”ref_49“,”unstructure“:”City Report,Inc.(2023,1月16日)纽约州推出噪音法,为精神恍惚的超速驾驶者提供监听技术。在线获取:https:\/\/www.thecity.nyc\/2022\/22\/22949795\/new-work-rolling-out-noise-law-listening-tech-for-souped-up-speedsters。“},{”key“:”ref_50“,”unstructured“:”Wang,J.、Sun,K.、Cheng,T.、Jiang,B.、Deng,C.、Zhao,Y.、Liu,D.、Mu,Y.,Tan,M.和Wang,X.(2019)。视觉识别的深度高分辨率表征学习。arXiv.“}”,{“key”:“ref_51”,“doi-asserted-by”:“crossref”,“unstructure”:“Lin,T.、Maire,M.、Belongie,S.J.、Bourdev,L.D.、Girshick,R.B.、Hays,J.、Perona,P.、Ramanan,D.、Doll\u00e1r,P.和Zitnick,C.L.(2014)。Microsoft COCO:上下文中的通用对象。arXiv。“,”DOI“:”10.1007\/978-3-319-10602-1_48“},{”key“:”ref_52“,”DOI-asserted-by“:”crossref“,”unstructured“:”Zhang,J.,Zheng10.1109\/ICCV48922.2021.00962“},{“key”:“ref_53”,“doi-asserted-by”:“crossref”,“unstructured”:“Xu,Y.,Yan,W.,Sun,H.,Yang,G.,and Luo,J.(2019).CenterFace:使用面作为点的关节面检测和对齐.arXiv.”,“doi”:“10.1155\/2020\/7845384”},},“key“ref_54”,“非结构化”:“NVIDIA(2023,January 31).Deepstream SDK。在线获取:https:\/\/developer.nvidia.com/deepstream-sdk。“}],”container-title“:[”Sensors“],”original-title”:[],”language“:”en“,”link“:[{”URL“:”https:\/\/www.mdpi.com\/1424-8220\/23\/7\/3710\/pdf“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}]”,“deposed”:{“date-parts”:[2023,4,4]],“date-time”:“2023-04-04”T06:25:50Z“,”时间戳“:1680589550000},”score“:1,”resource“:{”primary”:{“URL”:“https:\/\/www.mdpi.com//1424-8220\/23\/7\/3710”}},”subtitle“:[],”shorttitle“:[],”issued“:{date-parts”:[2023,4,3]]},“references-count”:54,“journal-issue“:”{“issue”:“7”,“published-on-line”:{date-parts“:[2023,4]]}}”,“alternative-id”:[“s23073710”],“URL”:“http://\/dx.doi.org\/10.3390\/s2307371”,“关系”:{},“ISSN“:[”1424-8220“],”ISSN-type“:[{”value“:”1424-8120“,”type“:”electronic“}],”subject“:【】,”published“:{”date-parts“:[2023,4,3]]}}}