nuScenes:自动驾驶的多模式数据集

@文章{Caesar2019nuScenesAM,title={nuScenes:自动驾驶的多模式数据集},author={霍尔格·凯撒(Holger Caesar)、瓦伦·班基蒂(Varun Bankiti)、亚历克斯·H·朗(Alex H.Lang)、索拉布·沃拉(Sourabh Vora)、威尼斯(Venice)、艾琳·刘(Erin Liong)、许强(Qiang Xu)、阿努什·克里希南(Anush Krishnan,journal={2020 IEEE/CVF计算机视觉和模式识别会议},年份={2019},页码={11618-11628},网址={https://api.semanticscholar.org/CorpusID:85517967}}
目标的鲁棒检测和跟踪对于自主车辆技术的部署至关重要。基于图像的基准数据集推动了计算机视觉任务的发展,例如目标检测、跟踪和环境中代理的分割。然而,大多数自动驾驶汽车都装有摄像头和距离传感器,如激光雷达和雷达。随着基于机器学习的检测和跟踪方法越来越流行,有必要对……进行培训和评估

询问这篇论文
人工智能驱动

aiMotive数据集:具有长距离感知的稳健自动驾驶的多模式数据集

这项工作引入了一个多模态数据集,用于具有远程感知能力的稳健自主驾驶,以及用于3D物体检测的训练的单峰和多峰基线模型。

Cityscapes 3D:9自由度车辆检测的数据集和基准

提出了Cityscapes 3D,将原始Cityscape数据集扩展为仅使用立体RGB图像的3D边界框注释,并捕获所有九个自由度,从而在RGB图像中实现像素精确的重投影,与基于激光雷达的方法相比,注释范围更大。

自动驾驶系统中基于语义分割的BEV检测与定位

本工作提出并实验了基于不同语义分段的模型,用于从LiDAR(光检测和测距)点云检测和定位周围物体,如车辆和行人。

A*3D数据集:在充满挑战的环境中实现自主驾驶

引入了一个新的具有挑战性的A*3D数据集,该数据集由RGB图像和LiDAR数据组成,具有显著的场景、时间和天气多样性,解决了现有数据集中的差距,从而将自动驾驶研究的任务边界推到更具挑战性的高度多样性环境中。

PandaSet:自动驾驶高级传感器套件数据集

本文介绍了PandaSet,这是第一个由具有免费商业许可证的完整、高精度自动驾驶汽车传感器套件生产的数据集,并为仅激光雷达的3D对象检测、LiDAR相机融合的3D对象检测和LiD AR点云分割提供了基线。

用于自动驾驶的多传感器融合三维目标检测

本文提出了一种用于自动驾驶的多模态融合三维目标检测模型,以充分利用激光雷达和摄像机传感器的优点,该模型由特征提取网络和融合网络组成。

A2D2:奥迪自动驾驶数据集

奥迪自动驾驶数据集(A2D2)由同时记录的图像和3D点云以及3D边界框、语义分割、实例分割和从汽车总线提取的数据组成。

自主车辆语义增强的多目标检测与跟踪

本文设计了一个语义增强的特征聚合模块,该模块融合了从两个不同分辨率和深度的分支中学习到的特征,在基于激光雷达的三维目标检测和跟踪方面优于最先进的方法。

Camera-LiDAR配置对自动驾驶三维目标检测的影响

本工作基于所提出的传感器感知模型,为摄像机和激光雷达评估提出了一个统一的信息理论替代度量,并设计了一个加速的高质量框架,用于数据采集、模型训练和性能评估,该框架与CARLA模拟器一起运行。

用于车辆类别和方向检测的高数据集增强的YOLO

提出了一种用于车辆类别和方向检测的目标检测模型,该模型在目标检测中表现出令人惊讶的良好性能,但对目标的类别分配并不令人满意。
...

A*3D数据集:在充满挑战的环境中实现自主驾驶

引入了一个新的具有挑战性的A*3D数据集,该数据集由RGB图像和激光雷达数据组成,具有显著的场景、时间和天气多样性,它解决了现有数据集中的差距,将自动驾驶研究中的任务边界推向更具挑战性的高度多样化的环境。

LaserNet:一种高效的自主驾驶概率三维目标检测器

基准测试结果表明,与其他最近的检测器相比,该方法的运行时间要低得多,并且与具有足够数据来克服距离视图训练挑战的大型数据集相比,它达到了最先进的性能。

用于自动驾驶的深度多模式对象检测和语义分割:数据集、方法和挑战

本文试图通过对测试车辆上的车载传感器、开放数据集和背景信息的概述,系统总结自动驾驶中深度多模式对象检测和语义分割的方法,并讨论其面临的挑战。

我们准备好自动驾驶了吗?KITTI愿景基准套件

该自动驾驶平台用于为立体、光流、视觉里程计/SLAM和3D物体检测任务开发新的具有挑战性的基准,揭示出在现有数据集(如Middlebury)上排名靠前的方法在从实验室外转移到现实世界时的表现低于平均水平。

Argoverse:使用丰富的地图进行3D跟踪和预测

Argoverse包括匹兹堡和迈阿密的一组自动车辆收集的传感器数据,以及3D跟踪注释、30万提取的有趣车辆轨迹和丰富的语义地图,其中包含丰富的几何和语义元数据,目前在任何公共数据集中都不可用。

StarNet:点云中目标检测的目标计算

这项工作提出了一个名为StarNet的目标检测系统,该系统专门设计用于利用点云数据的稀疏性和3D特性,并显示了与卷积基线相比,该设计如何在大型Waymo开放数据集和KITTI检测数据集上带来竞争性或优越性。

自主车辆的多光谱目标检测

结果表明,当应用于不同类型的目标时,多光谱图像中的每个分量对目标检测任务都是单独有用的,并且多光谱目标检测的平均精度(mAP)比仅RGB目标检测高13%。

用于自动驾驶的ApolloScape开放数据集及其应用

本文提出了一种融合摄像机视频、消费级运动传感器(GPS/IMU)和三维语义地图的传感器融合方案,以实现自主驾驶的鲁棒自定位和语义分割。

城市拥挤场景中全方位三维多目标检测与跟踪的H3D数据集

本工作介绍了本田研究所3D数据集(H3D),这是一个使用3D LiDAR扫描仪收集的大规模全环绕3D多目标检测和跟踪数据集,并提出了一种标记方法,以加快整个注释周期。

单目行人检测:调查与实验

本文从方法学和实验的角度概述了行人检测的现状,并指出HOG/linSVM在较高图像分辨率和较低处理速度下的明显优势。
...