本材料旨在确保学术和技术工作的及时传播。版权及其所有权利由作者或其他版权所有者保留。所有复制此信息的人都应遵守每个作者的版权所引用的条款和限制。在大多数情况下,未经版权所有者明确许可,不得转载这些作品。



细节中的魔鬼回归:深入研究卷积网

K.查特菲尔德,K.Simonyan,A.维达尔迪,A.齐瑟曼
2014年英国机器视觉会议
下载出版物:chatfield14.pdf[318Ko] 
最新一代的卷积神经网络(CNN)在图像识别和目标检测的挑战性基准方面取得了令人印象深刻的成果,显著提高了社区对这些方法的兴趣。然而,目前尚不清楚不同的CNN方法之间的相互比较以及与之前最先进的浅层表示法(如Bag-of-Visual-Words和改良Fisher向量)的比较。本文对这些新技术进行了严格的评估,探索了不同的深层架构并在共同点上进行了比较,确定并披露了重要的实现细节。我们确定了基于CNN表示的几个有用特性,包括CNN输出层的维数可以显著降低,而不会对性能产生不利影响。我们还确定了可以成功共享的深层和浅层方法的各个方面。特别是,我们表明,通常应用于基于CNN的方法的数据增强技术也可以应用于浅层方法,并导致类似的性能提升。复制论文中实验的源代码和模型已公开。

其他材料:


链接:


BibTex参考:

@诉讼中{Chatfield14,author=“Ken Chatfield和Karen Simonyan以及Andrea Vedaldi和Andrew Zisserman”,title=“细节中的魔鬼回归:深入卷积网”,booktitle=“英国机器视觉会议”,year=“2014”,}

数据库中的其他出版物: