在GitHub上查看

ScanNet:丰富的室内场景3D重建

安吉拉·戴    天使X。Chang公司    Manolis Savva公司    马西耶·哈尔伯
托马斯·芬克豪斯    马蒂亚斯·尼纳

斯坦福大学普林斯顿大学慕尼黑技术大学

提交新的ScanNet基准测试挑战在这里!


扫描网络

新闻

介绍

ScanNet是一个RGB-D视频数据集,在1500多次扫描中包含250万个视图,用3D相机姿势、表面重建和实例级语义分段进行注释。为了收集这些数据,我们设计了一个易于使用且可扩展的RGB-D捕获系统,该系统包括自动曲面重建和众包语义注释。我们表明,使用这些数据有助于在几个3D场景理解任务中实现最先进的性能,包括3D对象分类、语义体素标记和CAD模型检索。更多信息可以在我们的纸张.



如果您使用ScanNet数据或代码,请引用:

@正在进行{dai2017扫描,title={ScanNet:丰富的室内场景3D重建},author={戴,安吉拉和张,安琪尔X和萨瓦,马诺利斯和哈尔伯,马西耶和冯霍斯,托马斯和聂,马提亚斯},booktitle={Proc.计算机视觉和模式识别(CVPR),IEEE},年份={2017年}}

更改日志

请参阅详细的更改日志在这里.

许可证

ScanNet数据根据ScanNet使用条款,代码根据MIT许可证发布。

浏览

ScanNet数据可以在线浏览。

代码和数据

请访问我们的主要项目存储库,以获取更多信息,并访问代码、数据和经过培训的模型:https://github.com/ScanNet/ScanNet网站

使用我们的3D CNN架构在ScanNet中对3D扫描进行语义体素标记。体素颜色表示预测或地面真实类别。

致谢

ScanNet项目由谷歌探戈、英特尔、NSF(IIS-1251217和VEC 1539014/1539099)以及斯坦福大学研究生奖学金资助。我们还感谢Occipital捐赠结构传感器和Nvidia捐赠硬件,以及Max-Planck视觉计算中心和斯坦福大学CURIS项目的支持。

Toan Vuong、Joseph Chang和Helen Jiang帮助开发了移动扫描应用程序,Hope Casey-Allen和Duc Nugyen开发了注释界面的早期原型。我们感谢Alex Sabia扫描和验证注释,以及Halle Pollack、Julian Massarani和Michael Fang检查注释。最后但同样重要的是,我们要感谢所有其他帮助扫描并让我们进入扫描空间的志愿者,以及所有对界面设计进行注释并给予我们反馈的AMT工作人员。


上次更新时间:2018-02-11