跳到主要内容
研究论文

时间-精度机器学习性能基准DAWNBench的分析

作者信息和声明
出版:2019年7月25日出版历史
跳过抽象节

摘要

研究人员提出了硬件、软件和算法优化,以提高深度学习的计算性能。虽然其中一些优化可以更快地执行相同的操作(例如,提高GPU时钟速度),但其他许多优化会修改训练过程的语义(例如,降低精度),并可能影响最终模型对未查看数据的准确性。由于缺乏考虑这些权衡的标准评估标准,因此很难直接比较这些优化。为了解决这个问题,我们最近推出了DAWNBENCH,这是一项基准测试比赛,重点关注端到端的训练时间,以在看不见的数据集上实现近一流的准确性,这是称为时间到准确性(TTA)的综合衡量标准。在这项工作中,我们分析了来自DAWNBENCH的条目,该条目收到了来自多个行业团体的优化提交,以调查TTA作为衡量指标的行为以及表现最好的条目的趋势。我们表明,TTA具有较低的变异系数,为TTA优化的模型几乎与使用标准方法训练的模型一样通用。此外,尽管DAWNBENCH条目能够在3分钟内训练ImageNet模型,但我们发现它们仍然没有充分利用Tensor Cores等硬件功能。此外,我们发现分布式条目可以在通信上花费一半以上的时间。我们在MLPERF v0.5基准的条目中显示了类似的结果。

工具书类

  1. 第二届机器翻译会议,2017年。谷歌学者谷歌学者
  2. Tensorflow xla概述。https://www.tensorflow.org/性能/xla,2017年。谷歌学者谷歌学者
  3. ML性能。网址:https://mlperf.org/, 2018.谷歌学者谷歌学者
  4. TVM:用于深度学习的自动化端到端优化编译器。2018年,加利福尼亚州卡尔斯巴德OSDI。USENIX协会。谷歌学者谷歌学者数字图书馆数字图书馆
  5. Martín Abadi、Paul Barham、Jianmin Chen、Zhifeng Chen、Andy Davis、Jeffrey Dean、Matthieu Devin、Sanjay Ghemawat、Geoffrey Irving、Michael Isard等,《TensorFlow:大型机器学习系统》。在OSDI中,第16卷,第265-283页,2016年。谷歌学者谷歌学者数字图书馆数字图书馆
  6. Robert Adolf、Saketh Rama、Brandon Reagen、Gu YeonWei和David Brooks。深度:现代深度学习方法的参考工作量。在IISWC中,第1-10页。IEEE,2016年。谷歌学者谷歌学者交叉引用交叉引用
  7. 秋叶拓哉、铃木舒吉和福田敬介。超大小批量sgd:15分钟内在imagenet上训练resnet-50。arXiv预印arXiv:1711.043252017。谷歌学者谷歌学者
  8. 达里奥·阿莫迪和丹尼·埃尔南德斯。Ai和compute,2018年。谷歌学者谷歌学者
  9. Berk Atikoglu、Yuehai Xu、Eitan Frachtenberg、Song Jiang和Mike Paleczny。大型键值存储的工作负载分析。在SIGMETRICS,第40卷,第53-64页。ACM,2012年。谷歌学者谷歌学者数字图书馆数字图书馆
  10. 阿列克谢·巴耶夫斯基和迈克尔·奥利。神经语言建模的自适应输入表示。arXiv预印arXiv:1809.108532018。谷歌学者谷歌学者
  11. Soheil Bahrampour、Naveen Ramakrishnan、Lukas Schott和Mohak Shah。深度学习软件框架的比较研究。arXiv预印arXiv:1511.064352015。谷歌学者谷歌学者
  12. 百度。DeepBench:对不同硬件上的深度学习操作进行基准测试。https://github.com/baidu-research/DeepBench,2017年。谷歌学者谷歌学者
  13. 阿努普·班德。2018年,机器学习中什么是不足和过拟合,以及如何应对。谷歌学者谷歌学者
  14. 维克托·比托夫(Victor Bittorf)。2019年,使ncf反映生产使用情况。谷歌学者谷歌学者
  15. 道格汉堡。微软推出实时人工智能项目Brainwave。微软研究院,微软,2017年22月。谷歌学者谷歌学者
  16. Kevin K Chang、A Giray Yaglkç、Saugata Ghose、Aditya Agrawal、Niladrish Chatterjee、Abhijith Kashyap、Donghyuk Lee、Mike O’Connor、Hasan Hassan和Onur Mutlu。了解现代dram器件中的降压操作:实验表征、分析和机制。SIGMETRICS,1(1):2017年10月。谷歌学者谷歌学者数字图书馆数字图书馆
  17. 西普里安·切尔巴(Ciprian Chelba)、托马斯·米科洛夫(Tomas Mikolov)、迈克·舒斯特(Mike Schuster)、齐格(Qi Ge)、托尔斯滕·布兰茨(Thorsten Brants)、菲利普·科恩(Phillipp Koehn)和托尼·罗宾逊(Tony Robinson)。用于衡量统计语言建模进展的十亿字基准。arXiv预印arXiv:1312.30052013。谷歌学者谷歌学者
  18. 陈田琪、穆莉、李玉田、林敏、王乃燕、王敏杰、肖天军、徐冰、张驰元和张政。Mxnet:一个用于异构分布式系统的灵活高效的机器学习库。arXiv预印arXiv:1512.012742015。谷歌学者谷歌学者
  19. Sharan Chetlur、Cliff Woolley、Philippe Vandermersch、Jonathan Cohen、John Tran、Bryan Catanzaro和Evan Shelhamer。cuDNN:深度学习的高效原件。arXiv预印arXiv:1410.07592014。谷歌学者谷歌学者
  20. Trishul M Chilimbi、Yutaka Suzue、Johnson Apacible和Karthik Kalyanaraman。亚当项目:构建高效、可扩展的深度学习培训系统。OSDI,第14卷,第571-582页,2014年。谷歌学者谷歌学者数字图书馆数字图书馆
  21. 索米斯·钦塔拉。Convent-Benchmarks:对所有公共可访问的Convents实现进行简单的基准测试。https://github。com/soumith/convnet-benchmarks,2017年9月。谷歌学者谷歌学者
  22. Cody Coleman、Deepak Narayanan、Daniel Kang、Tian Zhao、Jian Zhang、Luigi Nardi、Peter Bailis、Kunle Olukotun、Chris Ré和Matei Zaharia。DAWNBench:端到端的深度学习基准和竞争。NIPS ML系统研讨会,2017年。谷歌学者谷歌学者
  23. 克里斯托弗·德萨、马修·费尔德曼、克里斯托弗·雷和昆勒·奥卢科顿。理解和优化异步低精度随机梯度下降。在ISCA中。ACM,2017年。谷歌学者谷歌学者数字图书馆数字图书馆
  24. 克里斯托弗·德萨(Christopher De Sa)、梅根·莱斯琴斯基(Megan Leszczynski)、张健(Jian Zhang)、阿拉娜·马尔佐夫(Alana Marzoev)、克里斯托弗·阿贝格尔(Christopor R Aberger)、昆勒·奥卢科顿(Kunle。高精度低精度训练。arXiv预印arXiv:1803.033832018。谷歌学者谷歌学者
  25. Jeffrey Dean、Greg Corrado、Rajat Monga、Kai Chen、Matthieu Devin、Mark Mao、Andrew Senior、Paul Tucker、Ke Yang、Quoc V Le等。大型分布式深网络。NIPS,2012年。谷歌学者谷歌学者数字图书馆数字图书馆
  26. J.Deng、W.Dong、R.Socher、L.-J.Li、K.Li和L.Fei-Fei。ImageNet:一个大规模的分层图像数据库。在CVPR092009中。谷歌学者谷歌学者交叉引用交叉引用
  27. Saugata Ghose、Abdullah Giray Yaglikçi、Raghav Gupta、Donghyuk Lee、Kais Kudrolli、William X Liu、Hasan Hassan、Kevin K Chang、Niladrish Chatterjee、Aditya Agrawal等。你的dram功率模型没有告诉你什么:来自详细实验研究的教训。SIGMETRICS,2(3):38,2018年。谷歌学者谷歌学者数字图书馆数字图书馆
  28. 泽维尔·格洛特、安托万·博德斯和约舒亚·本吉奥。深度稀疏整流器神经网络。在AISTATS中,第315-3232011页。谷歌学者谷歌学者
  29. 伊恩·古德费罗(Ian Goodfellow)、约舒亚·本吉奥(Yoshua Bengio)和亚伦·库维尔(Aaron Courville)。深度学习。麻省理工学院出版社,2016年。谷歌学者谷歌学者数字图书馆数字图书馆
  30. 谷歌。TensorFlow基准。https://www.tensorflow.org/绩效/基准,2017年。谷歌学者谷歌学者
  31. Priya Goyal、Piotr Dollár、Ross Girshick、Pieter Noordhuis、Lukasz Wesolowski、Aapo Kyrola、Andrew Tulloch、Yangqing Jia和Kaiming He。精确的大型小批量SGD:在1小时内训练ImageNet。arXiv预印arXiv:1706.026772017。谷歌学者谷歌学者
  32. 亚伦·哈拉普(Aaron Harlap)、崔恒刚(Henggang Cui)、魏岱(Wei Dai)、韦金良(Jinliang Wei)、格雷戈里·甘格(Gregory Ganger)、菲利普·吉本斯(Phillip Gibbons)、加思·吉布森(Garth Gibson)和埃里克·星(Eric Xing)。解决SoCC中迭代收敛并行ML的Stragler问题。ACM,2016年。谷歌学者谷歌学者数字图书馆数字图书馆
  33. Forrest N Iandola、Song Han、Matthew W Moskewicz、Khalid Ashraf、William J Dally和Kurt Keutzer。SqueezeNet:AlexNet级精度,参数少50倍,模型大小小于0.5 MB。arXiv预印arXiv:1602.073602016。谷歌学者谷歌学者
  34. 英特尔。Bigdl:面向apache spark的分布式深度学习库,2019年。谷歌学者谷歌学者
  35. 谢尔盖·洛夫和克里斯蒂安·塞格迪。批量规范化:通过减少内部协变量偏移来加速深层网络培训。arXiv预印arXiv:1502.031672015。谷歌学者谷歌学者
  36. 贾阳庆、埃文·谢尔哈默、杰夫·多纳休、谢尔盖·卡拉耶夫、乔纳森·朗、罗斯·吉希克、塞尔吉奥·瓜达拉马和特雷弗·达雷尔。Caffe:快速特征嵌入的卷积架构。在ACM国际多媒体会议上,第675-678页。ACM,2014年。谷歌学者谷歌学者数字图书馆数字图书馆
  37. Jia Zhihao、Matei Zaharia和Alex Aiken。超越深度神经网络的数据和模型并行性。2019年,SysML。谷歌学者谷歌学者
  38. Norman P Jouppi、Cliff Young、Nishant Patil、David Patterson、Gaurav Agrawal、Raminder Bajwa、Sarah Bates、Suresh Bhatia、Nan Boden、Al Borchers等。张量处理单元的数据中心内性能分析。在ISCA中,第1-12页。ACM,2017年。谷歌学者谷歌学者数字图书馆数字图书馆
  39. Rafal Jozefowicz、Oriol Vinyals、Mike Schuster、Noam Shazeer和Yonghui Wu。探索语言建模的局限性。arXiv预印arXiv:1602.02412016。谷歌学者谷歌学者
  40. Tero Karras、Timo Aila、Samuli Laine和Jaakko Lehtinen。GAN的逐步生长以提高质量、稳定性和变异性。arXiv预印arXiv:1710.101962017。谷歌学者谷歌学者
  41. Diederik P Kingma和Jimmy Ba.Adam:一种随机优化方法。ICLR,2015年。谷歌学者谷歌学者
  42. Mu Li、David G Andersen、Jun Woo Park、Alexander J Smola、Amr Ahmed、Vanja Josifovski、James Long、Eugene J Shekita和Bor-Ying Su。使用参数服务器扩展分布式机器学习。OSDI,第14卷,第583-598页,2014年。谷歌学者谷歌学者数字图书馆数字图书馆
  43. Bee Lim、Sanghyun Son、Heewon Kim、Seungjun Nah和Kyoung Mu Lee。用于单图像超分辨率的增强深度剩余网络。CVPR研讨会,第1卷,第3页,2017年。谷歌学者谷歌学者
  44. 林育君、宋汉、毛慧子、王瑜和比尔·戴利。深度梯度压缩:减少分布式训练的通信带宽。ICLR,2018年。谷歌学者谷歌学者
  45. 斯特凡诺·马基迪斯(Stefano Markidis)、史蒂文·魏德建(Steven Wei Der Chien)、埃尔文·劳尔(Erwin Laure)、常春藤·博·彭(Ivy Bo Peng)和杰弗里·斯维特(Jeffrey S Vetter)。Nvidia张量核心可编程性、性能和精度。arXiv预印arXiv:1803.040142018。谷歌学者谷歌学者
  46. 多米尼克·马斯特斯和卡洛·卢斯基。重温深度神经网络的小批量训练。arXiv预印arXiv:1804.07612018。谷歌学者谷歌学者
  47. Sam McCandish、Jared Kaplan、Dario Amodei和OpenAI Dota团队。大幅度训练的经验模型。arXiv预印arXiv:1812.061622018。谷歌学者谷歌学者
  48. Paulius Micikevicius、Sharan Narang、Jonah Alben、Gregory Diamos、Erich Elsen、David Garcia、Boris Ginsburg、Michael Houston、Oleksii Kuchaev、Ganesh Venkatesh等。混合精准训练。arXiv预印arXiv:1710.037402017。谷歌学者谷歌学者
  49. Ioannis Mitliagkas、Ce Zhang、Stefan Hadjis和Christopher Ré。异步产生动力,并应用于深度学习。2016年第54届阿勒顿通信、控制和计算年会(阿勒顿),第997-1004页。IEEE,2016年。谷歌学者谷歌学者数字图书馆数字图书馆
  50. 维诺德·奈尔和杰弗里·欣顿。整流线性单元改善了受限的玻尔兹曼机器。在ICML中,第807-814页,2010年。谷歌学者谷歌学者数字图书馆数字图书馆
  51. Feng Niu、Benjamin Recht、Christopher Re和Stephen Wright。Hogwild:一种并行化随机梯度下降的无锁方法。在NIPS中,第693--7012011页。谷歌学者谷歌学者数字图书馆数字图书馆
  52. Adam Paszke、Sam Gross、Soumith Chintala、Gregory Chanan、Edward Yang、Zachary DeVito、Zeming Lin、Alban Desmaison、Luca Antiga和Adam Lerer。pytorch中的自动区分。2017谷歌学者谷歌学者
  53. Dexmont Pena、Andrew Forembski、X小凡和David Moloney。低成本、低功耗机器人应用CNN的基准测试。2017谷歌学者谷歌学者
  54. Esteban Real、Alok Aggarwal、Yanping Huang和Quoc V Le。图像分类器体系结构搜索的正则化进化。arXiv预印arXiv:1802.015482018。谷歌学者谷歌学者
  55. 本杰明·雷奇特(Benjamin Recht)、丽贝卡·罗洛夫斯(Rebecca Roelofs)、路德维希·施密特(Ludwig Schmidt)和维沙尔·尚卡尔(Vaishaal Shankar)。CIFAR-10分类器是否概括为CIFAR-10?CoRR,abs/1806.004512018年。谷歌学者谷歌学者
  56. 赫伯特·罗宾斯和萨顿·蒙罗。一种随机近似方法。《数理统计年鉴》,第400-407页,1951年。谷歌学者谷歌学者
  57. 亚历山大·谢尔盖夫和迈克·德尔·巴尔索。Horovod:在张量流中快速且容易的分布式深度学习。arXiv预印arXiv:1802.057992018。谷歌学者谷歌学者
  58. 史绍怀、王强、徐鹏飞和朱晓文。标杆管理先进的深度学习软件工具。云计算和大数据(CCBD)。IEEE,2016年。谷歌学者谷歌学者
  59. Samuel L Smith、Pieter-Jan Kindermans和Quoc V Le。不要降低学习速度,增加批量大小。arXiv预印arXiv:1711.004892017。谷歌学者谷歌学者
  60. 贾沙·索尔·迪克斯坦(Jascha Sohl-Dickstein)、本·普尔(Ben Poole)和苏里亚·甘古利(Surya Ganguli)。统一随机梯度和拟牛顿法的快速大规模优化。在ICML中,第604-612页,2014年。谷歌学者谷歌学者数字图书馆数字图书馆
  61. Chen Sun、Abhinav Shrivastava、Saurabh Singh和Abhinav Gupta。重新审视深度学习时代数据的不合理有效性。CoRR,abs/1707.029682017年。谷歌学者谷歌学者
  62. 伊利亚·萨茨克弗(Ilya Sutskever)、詹姆斯·马滕斯(James Martens)、乔治·达尔(George Dahl)和杰弗里·辛顿(Geoffrey Hinton)。关于深度学习中初始化和动量的重要性。在ICML中,第1139--1147页,2013年。谷歌学者谷歌学者数字图书馆数字图书馆
  63. 塞缪尔·威廉姆斯、安德鲁·沃特曼和大卫·帕特森。屋顶:多核架构的一个有见地的视觉性能模型。ACM通讯,52(4):65-762009。谷歌学者谷歌学者数字图书馆数字图书馆
  64. 阿西娅·威尔逊、丽贝卡·罗洛夫斯、米切尔·斯特恩、纳蒂·斯雷布罗和本杰明·雷希特。机器学习中自适应梯度方法的边际值。在NIPS中,第4148-4158页,2017年。谷歌学者谷歌学者数字图书馆数字图书馆
  65. 杨友、赵章、谢秋菊、詹姆斯·德梅尔和库尔特·考茨。几分钟内完成Imagenet训练。在ICPP中,第1页。ACM,2018年。谷歌学者谷歌学者数字图书馆数字图书馆
  66. 张策和克里斯托弗·雷。Dimmwitted:主记忆统计分析研究。PVLDB,7(12):1283--12942014年。谷歌学者谷歌学者数字图书馆数字图书馆
  67. 朱洪瑜、穆罕默德·阿克鲁特、郑波坚、安德鲁·佩莱格里斯、阿马尔·法尼沙耶伊、比安卡·施罗德和根纳迪·佩基蒙科。Tbd:深度神经网络训练的基准测试和分析。arXiv预印arXiv:1803.069052018。谷歌学者谷歌学者

建议

评论

登录选项

检查您是否可以通过登录凭据或您的机构访问本文。

登录

完全访问权限

PDF格式

以PDF文件的形式查看或下载。

PDF格式

电子阅读器

使用eReader联机查看。

电子阅读器