{“status”:“ok”,“message type”:“work”,“message version”:“1.0.0”,“message”:{“indexed”:{“date parts”:[[2024,3,14]],“date time”:“2024-03-14T04:37:55Z”,“timestamp”:1710391075206},“publisher location”:“Cham”,“reference count”:42,“publisher”:“Springer Nature Switzerland”,“isbn type”:[{“value”:“9783031263477”,“type”:“print”},{“value”:“9783031263484”,“类型”:“electronic”}],“license”:[{“start”:{“date-parts”:[[2023,1,1]],“date-time”:“2023-01-01T00:00:00Z”,“timestamp”:1672531200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.springernature.com\/gp\/searners\/text-and-data-mining”},{“tart”:1-01T00:00:00Z“,”时间戳“:1672531200000},“内容版本”:“vor”,“延迟天数”:0,“URL”:“https:\/\/wspringernature.com\/gp\/researchers\/text and data mining”}],“内容域”:{“域”:[“link.springer.com”],“交叉标记限制”:false},“短容器标题”:[],“已发布的印刷品”:{“日期部分”:[[2023]]]},“DOI”:“10.1007\/978-3-031-26348-4_29”,“类型”:“图书章节”,“已创建”:{“date-parts”:[[2023,3,8]],“date-time”:“2023-03-08T07:03:47Z”,“timestamp”:1678259027000},“page”:“495-511”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“:”Crossref“,“is-referenced-by-count”:7,“title”:[“DOLPHINS:\u00a0协同感知启用和谐和\u00a的数据集0互联自驾“],“前缀”:“10.1007”,“作者”:[{“ORCID”:“http://\/ORCID.org\/0000-0001-7169-3922”,“authenticated-ORCID”:false,“给定”:“瑞清”,“家族”:“毛”,“序列”:“第一”,“隶属关系”:[]},{“ORCID”:“http://\-ORCID.org\/00000-0002-1040-8259”,“authenticated-ORCID“:false”,“给定的”:“靖宇”,“家庭”:“郭”,”序列“附加”,“从属关系”:[]},{“ORCID”:“http:\/\/orcid.org/0000-0002-2378-9433”,“经过身份验证的逆戟鲸”:false,“给定”:“Yukuan”,“family”:“Jia”,“sequence”:“additional”,“affiliation”:[]},{“orcid”:“http:\/\/orcid.org/0000-0001-9720-6993”,“经过身份验证的逆戟鲸”:false,“给定”:“Yuxuan”,“family”:“Sun”,“sequence”:“additional”,“affiliation”:[]},{“orcid”:“http:\/\/orcid”。org/0000-0003-0651-0071“,“authenticated-orcid”:false,“given”:“Sheng”,“family”:“Zhou”,“sequence”:“additional”,“affiliation”:[]},{“orcid”:”http://\/orcid.org\/00000-0003-0420-2024“,“authorited-orcid:false,”given“:”Zhisheng“,”family“:”Niu“,”sequence“:”additional“,”affiliance“:[]]],“member”:“297”,“published-on-line”:{“date-parts”:[2023,3,9]]},“引用”:[{“键”:“29_CR1”,“doi-asserted-by”:“crossref”,“unstructured”:“Caesar,H.等人:nuScenes:一个用于自动驾驶的多模态数据集。摘自:IEEE计算机视觉和模式识别会议论文集,第11621\u201311631(2020)页”,“doi”:“10.1109\/CVPR42600.2020.01164”},{“key”:“29_CR2”,“series-title”:“计算机科学讲稿”,“doi-asserted-by”:“publisher”,“first page”:“213”,“doi”:“10.1007\/978-3-030-58452-8_13”,”volume-title”:“Computer Vision\u2013 ECCV 2020”,“author”:“N Carion”,“year”:“2020”,”unstructured“:“Carion,N.、Massa,F.、Synnaeve,G.、Usunier,N.,Kirillov,A.、Zagoruyko,S.:使用变压器进行端到端对象检测。摘自:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12346卷,第213\u2013229页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58452-8_13“},{”key“:”29_CR3“,”unstructured“:”Chen,K.,et al.:MMDetection:打开MMLab检测工具箱和基准。arXiv预印本arXiv:1906.07155(2019)“}”,{“key”:“29_CR4”,“doi-asserted-by”:“publisher”,“unstructure”:“”Chen,Q.、Ma,X.、Tang,S.、Guo,J.、Yang,Q.,Fu,S.:F-cooper:基于特征的协作感知,用于使用3D点云的自主车辆边缘计算系统。摘自:第四届ACM/IEEE边缘计算研讨会论文集,SEC 2019,第88\u2013100页。纽约计算机械协会(2019年)。https:\/\/doi.org\/10.1145\/3318216.3363300“,”doi“:”10.1145\/33182 16.336330“},{“key”:“29_CR5”,“doi-asserted-by”:“crossref”,“unstructured”:“Chen,Q.、Tang,S.、Yang,Q.,Fu,S.:库珀:基于3D点云的互联自动车辆合作感知。2019年IEEE第39届分布式计算系统国际会议(ICDCS),第514\u2013524页。IEEE(2019)“,“DOI”:“10.1109\/ICDCS.2019.0058”},{“key”:“29_CR6”,“DOI-asserted-by”:“crossref”,“unstructured”:“Chen,X.,Ma,H.,Wan,J.,Li,B.,Xia10.1109\/CVPR.2017.691“},{“key”:“29_CR7”,“unstructured”:“Contributors,M.:MMDetection3D:OpenMMLab下一代通用3D对象检测平台(2020年)。https:\/\/github.com/open-mmlab\/MMDetection3D”},}“key”:”29_CR8“,”doi-asserted-by“:”crossref“,”unstructure“:”Deng,J.,Czarnecki,K.:MLOD:基于鲁棒特征融合方法的多视图三维对象检测。2019年IEEE智能运输系统会议(ITSC),第279\u2013284页。IEEE(2019)“,“DOI”:“10.1109\/ITSC.2019.8917126”},{“key”:“29_CR9”,“unstructured”:“Dosovitskiy,A.,Ros,G.,Codevilla,F.,Lopez,A.,Koltun,V.:CARLA:开放式城市驾驶模拟器。摘自:第一届机器人学习年会论文集,pp.1\u201316(2017)”}、{“key”:《29_CR10》,“DOI-asserted-by”:“crossref”,“非结构化”:“段,K.,Bai,S.,Xie,L.,Qi,H.,Huang,Q.,Tian,Q.:Centernet:目标检测的关键点三元组。收录于:IEEE计算机视觉国际会议论文集,第6569\u20136578页(2019年)“,”DOI“:”10.1109\/ICCV.2019.00667“},{“key”:“29_CR11”,“DOI-asserted-by”:“crossref”,“unstructured”:“Feng,C.,Zhong,Y.,Gao,Y.、Scott,M.R.,Huang,W.:TOOD:任务对齐的一段式目标检测。收录:ICCV(2021)”,“DOI”:“10.1109\/ICCV48922.2021.00349“},{“key”:“29_CR12”,“unstructured”:“Ge,Z.,Liu,S.,Wang,F.,Li,Z..,Sun,J.:YOLOX:2021年超过yolo系列。arXiv预印本arXiv:2107.08430(2021)“},{“key”:“29_CR13”,“doi-asserted-by”:“crossref”,“unstructured”:“Geiger,A.,Lenz,P.,Urtasun,R.:我们准备好自动驾驶了吗?KITTI视觉基准套件。In:Conference on Computer vision and Pattern Recognition(CVPR)(2012)”,“doi”:“10.1109\/CVPR.2012.6248074”}doi-asserted-by“:”crossref“,”unstructured“:”Girshick,R.:Fast R-CNN。摘自:IEEE计算机视觉国际会议(ICCV)(2015)论文集”,“DOI”:“10.1109\/ICCV.2015.169”},{“key”:“29_CR15”,“DOI-asserted-by”:“crossref”,“unstructured”:“Girshick,R.、Donahue,J.、Darrell,T.、Malik,J.:丰富的特征层次结构可用于准确的对象检测和语义分割。摘自:IEEE计算机视觉和模式识别会议论文集,第580\u2013587页(2014)“,“DOI”:“10.1109\/CVPR.2014.81”},{“key”:“29_CR16”,“DOI-asserted-by”:“crossref”,“unstructured”:“He,K.,Gkioxari,G.,Doll\u00e1r,P.,Girshick,R.:面具R-CNN。摘自:IEEE计算机视觉国际会议论文集,第2961\u20132969页(2017)“,”DOI“:”10.1109\/ICCV.2017.322“},{“issue”:“3”,“key”:“29_CR17”,“DOI-asserted-by”:“publisher”,“first page”::“39”,“DOI”:“10.1109\/MITS.2015.2409883”,“volume”:”7“author”:“SW Kim”,“year”:“2015”,“unstructured”:“Kim,S.W.,Liu,W.,Ang,M.H.,Frazzoli,E.,Rus,D.:合作感知对自主车辆决策和规划的影响。IEEE智能。运输。系统。Mag.7(3),39\u201350(2015)“,“期刊标题”:“IEEE Intell。运输。系统。Mag.“},{”key“:”29_CR18“,”doi-asserted-by“:”crossref“,”unstructured“:”Lang,A.H.,Vora,S.,Caesar,H.,Zhou,L.,Yang,J.,Beijbom,O.:Pointpollars:点云目标检测的快速编码器。摘自:IEEE计算机视觉和模式识别会议论文集,第12697\u201312705页(2019)“,”doi“:”10.1109\/CVPR.2019.01298“},{“key”:“29_CR19”,“doi-asserted-by”:“crossref”,“unstructured”:“Law,H.,Deng,J.:Cornernet:检测对象作为配对关键点。摘自:《欧洲计算机视觉会议论文集》,第734\u2013750页(2018)”,“doi”:“10.1007\/978-3-30-01264-9_45”},{:“Li,P.,Chen,X.,Shen,S.:基于立体R-CNN的自动驾驶三维物体检测。在:IEEE\/CFF计算机视觉和模式识别会议论文集,第7644\u20137652页(2019)”,“DOI”:“10.1109\/CVPR.2019.00783”},{“key”:“29_CR21”,“DOI由”断言:“publisher”,“nonstructured”:“Li,Y.,An,Z.,Wang,Z.、Zhong,Y.、Chen,S.、Feng,C.:V2X-sim:自动驾驶虚拟协作感知数据集(2022)。https:\/\/doi.org\/10.48550\/ARXIV.2202.08449。https:\/\/arxiv.org/abs\/2202.08449“,”DOI“:”10.44850\/ARSXIV.2202.08449“},{”key“:”29_CR22“,”DOI断言“:”publisher“,”unstructured“:”Lin,T.Y.等人:Microsoft coco:上下文中的公共对象(2014)。https:\/\/DOI.org//10.44850\/ARSXIV.1405.0312。https:\/\/arxiv.org\/abs\/1405.0312“,“DOI”:“10.48550\/arxiv.1405.0312”},{“key”:“29_CR23”,“series-title”:“计算机科学课堂讲稿”,“DOI-asserted-by”:“publisher”,“first page”:”21“,”DOI“:”10.1007\/978-3319-46448-0_2“,”volume-title“:”Computer Vision\u2013 ECCV 2016“,”author“:”W Liu“,”year“:”2016“,“”非结构化“:”Liu,W.,et al.:SSD:单发多盒探测器。收录人:Leibe,B.,Matas,J.,Sebe,N.,Welling,M.(编辑)ECCV 2016。LNCS,第9905卷,第21页\u201337。查姆施普林格(2016)。https:\/\/doi.org\/10.1007\/978-3-319-46448-0_2“},{”key“:”29_CR24“,”series-title“:”计算机科学讲义“,”doi-asserted-by“:”publisher“,”首页“:”488“,”doi“:”10.1007\/978-300-58571-6_29“,”volume-title“:“Computer Vision\u2013 ECCV 2020”,”author“:”AS Nassar“,”年份“:”2020“,”非结构化“:”Nassar,A.S.、D\u2019Aronco,S.、Lef\u00e8vre,S.和Wegner,J.D.:地理图:基于图形的多视图目标检测,端到端几何线索。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12352卷,第488\u2013504页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58571-6_29“},{“key”:“29_CR25”,“doi-asserted-by”:“crossref”,“unstructured”:“Nassar,A.S.,Lef\u00e8vre,S.,Wegner,J.D.:使用学习的几何软约束进行同步多视图实例检测。摘自:IEEE\/CVF计算机视觉国际会议论文集,第6559\u20136568(2019)页”,“DOI“:”10.1109\/ICCV.2019.00666“},{“key”:“29_CR26”,“DOI-asserted-by”:“crossref”,“unstructured”:“Rawashdeh,Z.Y.,Wang,Z.:协同自动驾驶:一种基于机器学习的方法,以提高共享信息的准确性。摘自:2018年第21届智能交通系统国际会议(ITSC),第3961\u20133966页。IEEE(2018)“,”DOI“:”10.1109\/ITSC.2018.8569832“},{“key”:“29_CR27”,“DOI-asserted-by”:“crossref”,“unstructured”:“Redmon,J.,Divvala,S.,Girshick,R.,Farhadi,A.:你只看一次:统一的实时对象检测。摘自:IEEE计算机视觉和模式识别会议论文集,第779\u2013788页(2016)”,“DOI”:“10.1109\/CVPR.2016.91“},{“key”:“29_CR28”,“doi-asserted-by”:“crossref”,“unstructured”:“Redmon,J.,Farhadi,A.:Yolo9000:更好,更快,更强。摘自:IEEE计算机视觉和模式识别会议论文集,第7263\u20137271页(2017)”,“doi”:“10.1109\/CVPR.2017.690”},}“keys”:“29.CR29”,“非结构化”:“Redmon,J.,Farhadi,A.:Yolov3:渐进式改进。arXiv预印本arXiv:1804.02767(2018)“},{“key”:“29_CR30”,“unstructured”:“Ren,S.,He,K.,Girshick,R.,Sun,J.:更快的R-CNN:利用区域提议网络实现实时对象检测。In:Advances In Neural Information Processing Systems,vol.28(2015)”},},“key“:”29_CR31“,”doi-asserted-by“:”crossref“,”:“unstrustured”Shi,S.等:PV-RCNN:用于三维对象检测的点-盒特征集抽象。收录于:IEEE计算机视觉和模式识别会议论文集,第10529\u201310538(2020)页,“DOI”:“10.1109”,{“key”:“29_CR32”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sindagi,V.A.,Zhou,Y.,Tuzel,O.:MVX-Net:用于3D对象检测的多模式VoxelNet。2019年机器人与自动化国际会议(ICRA),第7276\u20137282页。IEEE(2019)“,“DOI”:“10.1109\/ICRA.2019.8794195”},{“key”:“29_CR33”,“DOI-asserted-by”:“crossref”,“unstructured”:“Sun,P.等人:自主驾驶感知的可扩展性:Waymo开放数据集。摘自:IEEE计算机视觉和模式识别会议记录,第2446\u20132454页(2020)”,“DOI:”10.1109\/CVPR42600.2020.00252“},{“key”:“29_CR34”,“series-title”:“计算机科学课堂讲稿”,“doi-asserted-by”:“publisher”,“first page”:”605“,“doi”:“10.1007\/978-3030-58536-5_36”,“volume-title”:”计算机视觉\u2013 ECCV 2020“,”作者:“T-H Wang”,“年份”:“2020”,“非结构化”:“Wang,T.-H.,Manivasagam,S.,Liang,M.,Yang,B.,Zeng,W.,Urtasun,R.:V2VNet:用于联合感知和预测的车对车通信。收录人:Vedaldi,A.、Bischof,H.、Brox,T.、Frahm,J.-M.(编辑)ECCV 2020。LNCS,第12347卷,第605\u2013621页。查姆施普林格(2020)。https:\/\/doi.org\/10.1007\/978-3-030-58536-5_36“},{“key”:“29_CR35”,“unstructured”:“Wang,Y.,Guizilini,V.C.,Zhang,T.,Wang,Y,Zhao,H.,Solomon,J.:DETR3D:通过3D-2D查询从多视图图像中检测三维物体。收录:机器人学习会议,第180\u2013191页。PMLR(2022)“},{“key”:“29_CR36”,“doi-asserted-by”:“crossref”,“unstructured”:“Xiao,Z.,Mo,Z.、Jiang,K.,Yang,D.:车辆合作感知中语义层面的多媒体融合。摘自:2018 IEEE多媒体与博览会国际会议(ICMEW),第1\u20136页。IEEE(2018)“,“DOI”:“10.1109\/IMEW.2018.8551565”},{“key”:“29_CR37”,“DOI-asserted-by”:“publisher”,“unstructured”:“Xu,R.,Xiang,H.,Tu,Z.,Xia,X.,Yang,M.H.,Ma,J.:V2X-VIT:使用视觉变换器的车辆到一切协同感知(2022)。https:\/\/DOI.org\/10.48550\/ARXIV.2203.10638。https:\/\/arxiv.org\/abs\/2203.10638“,”DOI“:”10.48550\/arxiv.2203.10638“},{”key“:”29_CR38“,”DOI-asserted-by“:”publisher“,”unstructured“:”Xu,R.,Xian,H.,Xia,X.,Han,X.、Li,J.,Ma,J.:OPV2V:用于车对车通信感知的开放基准数据集和融合管道(2021)https:\/\/doi.org\/10.48550\/ARXIV.2109.07644。https:\/\/arxiv.org\/abs\/2109.07644“,”DOI“:”10.48550\/arxiv.2109.07644“},{”key“:”29_CR39“,”DOI-asserted-by“:”publisher“,”first page“:“3337”,“DOI”:“10.3390\/s18103337”,“volume”:“18”,“author”:“Y Yan”,“year”:“2018”,“unstructured”:“Yen,Mao,Y.,Li,B.:Second:稀疏嵌入卷积检测。传感器18,3337(2018)“,“新闻标题”:”传感器“},{”问题“:”3“,”键“:”29_CR40“,”doi-asserted-by“:”出版商“,”首页“:”96“,”doi“:”10.1109\/MNET.011.200560“,”卷“:”35“,”作者“:”Q Yang“,”年份“:”2021“,”非结构化“:”Yang,Q.,Fu,S.,Wang,H.,Fang,H.:互联自动车辆的机器学习合作感知:挑战与机遇。IEEE网络35(3),96\u2013101(2021)“,”日志标题“:”IEEE网络“},{“key”:“29_CR41”,“doi-asserted-by”:“crossref”,“unstructured”:“Yu,H.,et al.:DAIR-V2X:用于车-机-地协同三维目标检测的大规模数据集。在:《IEEE\/CVF计算机视觉与模式识别会议论文集》,第21361\u201321370(2022)页,“DOI”:“10.1109\/CVPR526882067”},{“issue”:“1”,“key”:“29_CR42”,“DOI asserted by”:“publisher”,“first page”:“11”,“DOI”:“10.1109\/MCOMSTD.001.1900044”,“volume”:“4”,“author”:“S Zeadally”,“year”:“2020”,“nonstructured”:“Zeadally,S.、Javed,M.A.、Hamida,E.B.:车辆通信:标准化和挑战。IEEE通讯。站立。Mag.4(1),11\u201317(2020)“,“期刊标题”:“IEEE通讯。站立。Mag.“}”,“container-title”:[“Computer Vision\u2013 ACCV 2022”,“计算机科学课堂讲稿”],“original-title“:[],“link”:[{“URL”:“https:\/\/link.springer.com/content\/pdf\/10.1007\/978-3-031-26348-4_29”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2023,3,8]],“date-time“:”2023-03-08T07:20:10Z“,”timestamp“:1678260010000},”score“:1,”resource“:{主要”:{“URL”:“https:\/\/link.springer.com\/10.1007\/978-3-031-26348-4_29”}},“副标题”:[],“短标题”:[],“已发布”:{“date-parts”:[2023]]},《ISBN》:[“9783031263477”,“97830.31263484”],“references-count”“:42,”URL“:”http://\/dx.doi.org\/10.1007\/978-3-031-26348-4_29“,”关系“:{},”ISSN“:[”0302-9743“,”1611-3349“],”ISSN-type“:[{”value“:”0302-7743“、”type“:”print“}、{”value“:”1611-33049“、”类型“:”electronic“}]、”subject“:【】、”published“:{”date-parts“:【2023】}、”assertion“:【{”value“:“2023年3月9日”、“订单”:1、“名称”:“first_online”、“标签”:“first online”,“组”:{“名称”:“章节历史”,“标签”:“章历史”}},{“value“:”ACCV“,”order“:1,”name“:”conference_acrombior“,”label“:”conference缩写“,”group“:order“:3,”name“:”conference_city“,”label“:”会议城市“,”group“:“:”会议年份“,”组“:{”name“:”ConferenceInfo“,”label“:”会议信息“}},”value“:”2022年12月4日“,”order“:7,”name“:”Conference_start_date“,“label”:”会议开始日期“,”group“:group“:{”name“:”ConferenceInfo“,”label“:”会议信息“}},{”value“:”16“,”order“:9,”name“:”Conference_number“,“label”:“会议编号”,“group”:{“name”:“ConferenceInformo”,“lable”:“conferenceInformation”},}“value”:“accv2022”,“order”:10,“name”:“Conference_id”,“tabel”:”会议id“,”group“:{”name:“ConferenceInfo”,“标签”:“会议信息“}},{“value”:“https:\/\/www.accv2022.org”,“order”:11,“name”:“Conference_url”,“label”:“会议url”,“group”:{“name”:“ConferenceInfo”,”label“:”会议信息“{},”value“:”Double-blind“,”order“:1,”name“:”type“,”lable“:”type“,”group“:{”name“”:”ConfEventPeerReviewInformation“,”标签“:”同行评审信息(由会议组织者提供)“}},{”value“:”CMT Microsoft“,”order“:2,”name“:”conference_management_system“,”label“:”会议管理系统“,”group“:number_of_submissions_sent_for_review“,”label“:“发送供审阅的提交数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行审阅信息(由会议组织者提供)”}},{“value”:“277”,“order”:4,“name”:“number_ of_full_papers_accepted”,“table”:“已接受的全文数”,”group“:{”name“:”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)33%-该值由等式“接受的完整论文数”/“提交供审查的论文数*100”计算,然后四舍五入为整数。“,”order“:6,”name“:”acceptance_rate_of_full_papers“,”label“:”全文接受率“,”group“:”{“name”:“ConfEventPeerReviewInformation”,“label”:“同行评审信息(由会议组织者提供)”}},{“value”:“3.3”,“order”:7,“name”:“average_number_of_reviews_per_paper”,“table”:“每篇论文的平均审阅次数”,“group”:{“”name“:”ConfEventPeerReviewInformation“,”label“:”同行评议信息(由会议组织者提供)“}},{“value”:“2.6”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每个审阅者的平均论文数”,“group”:同行评审信息(由会议组织者提供)“}},{“value”:“Yes”,“order”:9,“name”:“external_reviewers_involved”,“label”:“external reviewers involved”、“group”:{“name”:“ConfEventPeerReviewInformation”,“table”:“同行评审信息对于ACCV 2022研讨会,已从40份提交文件中接受了25篇论文“,”order“:10,”name“:”additional_info_on_review_process“,”label“:”审查过程的附加信息“,”group“:{”name“:”ConfEventPeerReviewInformation“,”table“:”同行审查信息(由会议组织者提供)“}}]}}