摘要
马丁·阿巴迪、阿什什·阿加瓦尔、保罗·巴勒姆、尤金·布雷维多、陈志峰、克雷格·雪铁罗、格雷格·科拉多、安迪·戴维斯、杰弗里·迪恩、马蒂厄·德文、桑杰·盖马瓦特、伊恩·古德费罗、安德鲁·哈普、杰弗里·欧文、迈克尔·伊萨德、杨庆嘉、拉法尔·约泽福维奇、卢卡斯·凯泽、曼朱纳特·库德勒、乔什·莱文伯格、丹·马内、拉贾特·蒙加、雪利·摩尔, 德里克·默里(Derek Murray)、克里斯·奥拉(Chris Olah)、迈克·舒斯特(Mike Schuster)、乔纳森·施伦斯(Jonathon Shlens)、贝诺伊特·施泰纳(Benoit Steiner)、伊利亚·萨茨克弗(Ilya Sutskever)、库纳尔·塔尔瓦尔(Kunal Talwar)、保罗·塔克(Paul Tucker)、文森特·范霍克(Vincent Vanhoucke)、维杰伊·瓦苏。 2015.TensorFlow:异构系统上的大规模机器学习。 http://tensorflow.org/ 软件可从tensorflow.org获得。 谷歌学者 Soumith Chintala Adam Paszke、Sam Gross和Gregory Chanan。 {n.d.}。 PyTorch。 https://github.com/pytorch/pytarch。 谷歌学者 维杰·巴德里纳亚南(Vijay Badrinarayanan)、亚历克斯·肯德尔(Alex Kendall)和罗伯托·西波拉(Roberto Cipolla)。 2017.SegNet:用于图像分割的深度卷积编码器-解码器架构。 IEEE模式分析和机器智能汇刊(2017年)。 谷歌学者 陈田琪、穆莉、李玉田、林敏、王乃燕、王敏杰、肖天军、徐冰、张驰元和张政。 MXNet:异构分布式系统的灵活高效机器学习库。 CoRR,第abs/1512.01274卷(2015年)。 阿西夫:1512.01274 谷歌学者 瓦莱里乌·科德雷厄(Valeriu Codreau)、达米安·波德拉努(Damian Podarenu)和维克拉姆·萨利托雷(Vikram Saletore)。 2017.在ImageNet-1K上用不到40分钟实现深度学习培训。 https://blog.surf.nl/en/imagenet-1k-training-on-intel-xeon网站- φ-不到40分钟/。 谷歌学者 R.科洛伯特。 2008年,火炬。 NIPS机器学习开源软件研讨会。 谷歌学者 泽维尔·马托雷尔·大卫·奥罗、卡尔斯·费尔南德斯和哈维尔·埃尔南多。 2016.嵌入式GPU架构的高效工作并行非最大值抑制。 ICASSP(2016)。 谷歌学者 Jeffrey Dean、Greg Corrado、Rajat Monga、Kai Chen、Matthieu Devin、Mark Mao、Marctextquotesingle aurelio Ranzato、Andrew Senior、Paul Tucker、Ke Yang、Quoc V.Le和Andrew Y.Ng.2012。 大规模分布式深层网络。 《神经信息处理系统进展》25,F.Pereira、C.J.C.Burges、L.Bottou和K.Q.Weinberger(编辑)。 Curran Associates公司,1223--1231。 谷歌学者 数字图书馆 杰弗里·迪恩(Jeffrey Dean)和桑杰·盖马沃特(Sanjay Ghemawat)。 MapReduce:大型集群上的简化数据处理,OSDI 2004。 奥斯迪04,137-150。 谷歌学者 数字图书馆 J.Deng、W.Dong、R.Socher、L.-J.Li、K.Li和L.Fei-Fei。 2009年,ImageNet:一个大尺度层次图像数据库。 在CVPR09中。 谷歌学者 等。道格尔·麦克劳林(Dougal Maclaurin)。 Autograd。 https://github.com/HIPS/签名 谷歌学者 M.Everingham、L.Van Gool、C.K.I.Williams、J.Winn和A.Zisserman。 2010年,Pascal可视对象类(VOC)挑战赛。 IJCV,第88卷,第2卷(2010年6月),第303-338页。 谷歌学者 数字图书馆 Ian J.Goodfellow、David Warde-Farley、Pascal Lamblin、Vincent Dumoulin、Mehdi Mirza、Razvan Pascanu、James Bergstra、Fr? d?天? ric Bastien和Yoshua Bengio。 2013.Pylearn2:机器学习研究库。 CoRR,第abs/1308.4214卷(2013年)。 谷歌学者 Priya Goyal、Piotr Dollár、Ross B.Girshick、Pieter Noordhuis、Lukasz Wesolowski、Aapo Kyrola、Andrew Tulloch、Yangqing Jia和Kaiming He。 2017.精准、大批量SGD:1小时内培训ImageNet。 CoRR,卷abs/1706.02677(2017)。 谷歌学者 巴拉斯·哈里哈兰(Bharath Hariharan)、巴勃罗·阿贝莱兹(Pablo Arbelaez)、卢博米尔·波德夫(Lubomir Boudev)、苏布兰苏·马吉(Subhransu Maji)和吉坦德拉·马利克(Jitendra Malik)。 2011.反向检测器的语义轮廓。 在ICCV中。 谷歌学者 数字图书馆 何开明、张湘玉、任少清、孙建军。 2016.图像识别的深度剩余学习。 在CVPR中。 770--778. 谷歌学者 小娟齐晓刚王佳雅贾衡双赵建平。 2017.金字塔场景解析网络。CVPR(2017)。 谷歌学者 Matthew Honnibal和Ines Montani。 {n.d.}。 spaCy 2:使用Bloom嵌入、卷积神经网络和增量解析进行自然语言理解。 ({n.d.})。 https://spacy.io网址/ 谷歌学者 胡杰、李深和孙刚。 2018.挤压和励磁网络。 CVPR公司。 谷歌学者 杨庆佳。 2013年,Caffe:一种用于快速功能嵌入的开放源码卷积架构。 谷歌学者 埃里克·琼斯(Eric Jones)、特拉维斯·奥列芬特(Travis Oliphant)、佩鲁·彼得森(Pearu Peterson)等。 2001--. SciPy:Python的开源科学工具。 网址:http://www.scipy.org/ 谷歌学者 Diederik P.Kingma和Max Welling。 2014.自动编码变异贝叶斯。 ICLR(2014)。 谷歌学者 安德烈亚斯·科克纳(Andreas Klöckner)、尼古拉·平托(Nicolas Pinto)、Yunsup Lee、B.Catanzaro、保罗·伊万诺夫(Paul Ivanov)和艾哈迈德·法西(Ahmed Fasih)。 2012.PyCUDA和PyOpenCL:基于脚本的GPU运行时代码生成方法。 并行计算, 第38卷,第3卷(2012年),157-174。 谷歌学者 数字图书馆 Yann LeCun、Yoshua Bengio和Geoffrey Hinton。 2015年,深度学习。 《自然》,第521卷(2015),436-444。 谷歌学者 交叉引用 林宗毅(Tung-Yi Lin)、多拉(Piotr Dollár)、吉希克(Ross B Girshick)、何开明(Kaiming He)、哈里哈兰(Bharath Hariharan)和贝隆吉(Serge J Belongie)。 2017.目标检测的特征金字塔网络。。 CVPR,第1卷。 三。 谷歌学者 林宗毅、迈克尔·梅尔、谢尔盖·贝隆吉、詹姆斯·海斯、彼得罗·佩罗纳、德瓦·拉马南、彼得罗尔·多拉和C·劳伦斯·兹尼克。 2014.微软coco:上下文中的通用对象。 在欧洲计算机视觉会议上。 施普林格,740年至755年。 谷歌学者 交叉引用 刘伟(Wei Liu)、安格洛夫(Dragomir Angelov)、杜米特鲁·尔汗(Dumitru Erhan)、谢格迪(Christian Szegedy)、里德(Scott Reed)、傅成阳(Cheng yang Fu)和亚历山大·贝尔格(Alexander C Berg)。2016。 SSD:单发多盒探测器。 arXiv预印arXiv:1512.02325v2(2016)。 谷歌学者 塞巴斯蒂安·拉莫斯(Sebastian Ramos)、蒂莫·雷赫菲尔德(Timo Rehfeld)、马库斯·恩兹韦勒(Markus Enzweiler)、罗德里戈·贝内森(Rodrigo Benenson)、弗兰克·斯特凡·罗斯(Stefan Roth Bernt)、席勒(Schiele Marius Cordts)、穆罕默德·奥姆兰(Mohamed Omran)。 2017.语义城市场景理解的城市景观数据集。 CVPR(2017)。 谷歌学者 Tomávs Mikolov、Martin Karafiát、Lukávs.Burget、Jan vC ernock和Sanjeev Khudanpur。 2010年。基于递归神经网络的语言模型。 在INTERSPEECH中。 1045到1048。 谷歌学者 托马斯·米科洛夫(Tomas Mikolov)、伊利亚·萨茨克沃(Ilya Sutskever)、陈凯(Kai Chen)、格雷格·科拉多(Greg S Corrado)和杰夫·迪恩(Jeff Dean)。 2013.单词和短语的分布式表示及其组成。 NIPS(2013),3111--3119。 谷歌学者 数字图书馆 沃洛德米尔·姆尼赫(Volodymyr Mnih)、科雷·卡武科古奥格鲁(Koray Kavukcuoglu)、大卫·西尔弗(David Silver)、亚历克斯·格雷夫斯(Alex Graves)、伊奥尼斯·安东诺格鲁(Ioannis Antonoglou)、达安·维。 2013年,通过深度强化学习玩Atari游戏。 NIPS深度学习研讨会。 谷歌学者 郝苏·乔纳森·克劳斯·桑吉夫·萨蒂什·肖恩·马志亨黄安德烈·卡佩西·阿迪蒂亚·科斯拉迈克尔·伯恩斯坦·亚历山大·贝尔格·李飞飞·奥尔加·鲁萨科夫斯基、贾登。 2015.ImageNet大规模视觉识别挑战。 IJCV(2015)。 谷歌学者 数字图书馆 特拉维斯·奥列芬特。 2006.NumPy指南。 Trelgol出版社。 http://www.tramy.us/numpybook.pdf 谷歌学者 数字图书馆 潘星浩、陈建民、Rajat Monga、Samy Bengio和Rafal Jozefowicz。 2017.重新访问分布式同步SGD。 ICLR研讨会,2016年(2017年2月)。 谷歌学者 约瑟夫·雷德蒙和阿里·法哈迪。 2016.YOLO9000:更好、更快、更强。 arXiv预印arXiv:1612.08242(2016)。 谷歌学者 约瑟夫·雷德蒙和阿里·法哈迪。 2018年,YOLOv3:渐进式改进。 arXiv(2018)。 谷歌学者 任少清、何开明、罗斯·吉希克和孙健。 2015.更快的R-CNN:利用区域建议网络实现实时目标检测。 《神经信息处理系统进展》28,C.Cortes、N.D.Lawrence、D.D.Lee、M.Sugiyama和R.Garnett(编辑)。 Curran Associates公司,91-99。 谷歌学者 数字图书馆 雅各布·施赖伯(Jacob Schreiber)。 2017.石榴:快速灵活的python概率建模。 CoRR,第abs/1711.00137卷(2017年)。 谷歌学者 亚历山大·谢尔盖夫和迈克·德尔·巴尔索。 2018年,Horovod:在TensorFlow中快速轻松地进行分布式深度学习。 CoRR,第abs/1802.05799卷(2018年)。 arxiv公司:1802.05799 http://arxiv.org/abs/1802.05799 谷歌学者 诺姆·沙泽尔(Noam Shazeer)、郑友龙(Youlong Cheng。 2018年,Mesh-TensorFlow:超级计算机的深度学习。 在神经信息处理系统中。 谷歌学者 数字图书馆 K.Simonyan和A.Zisserman。 2014.用于大规模图像识别的极深卷积网络。 CoRR,第abs/1409.1556卷(2014年)。 谷歌学者 Ilya Sutskever、Oriol Vinyals和Quoc V.Le。 2014.使用神经网络进行序列到序列学习。 NIPS(2014),3104--3112。 谷歌学者 数字图书馆 亚历山大·托舍夫(Alexander Toshev)和克里斯蒂安·塞格迪(Christian Szegedy)。 2014.DeepPose:通过Deep神经网络进行人体姿势估计。 在CVPR中。 1653--1660. 谷歌学者 数字图书馆 Oriol葡萄酒和Quoc V.Le。 2015年,神经对话模型。 CoRR,第abs/1506.05869卷(2015年)。 http://dblp.uni-trier.de/db/journals/corr/corr1506.html#VinyalsL15 谷歌学者 吉峰戴向阳季一臣魏义利,郝志琦。 2017.完全卷积实例软件语义分割。 CVPR(2017)。 谷歌学者 杨友、赵章、谢秋菊、詹姆斯·德梅尔和库尔特·考茨。 2017年ImageNet培训纪要。 CoRR,第abs/1709.05011卷(2017年)。 谷歌学者 董瑜、亚当·埃弗索尔、迈克·萨尔策、姚凯生、奥列克西·库查耶夫、张瑜、弗兰克·塞德、黄志恒、布赖恩·古恩特、王华明、贾沙·德罗波、杰弗里·茨威格、克里斯·罗斯巴赫、杰高、安德烈亚斯·斯托尔克、乔恩·库里、马尔科姆·斯莱尼、陈国国、阿米特·阿加瓦尔、克里斯·巴索鲁、马克·帕德米拉克、阿列克谢·卡梅内夫、弗拉基米尔·伊万诺夫、斯科特·西弗、, Hari Parthasarathi、Bhaskar Mitra、Paolin Peng和Xuedong Huang。 2014.计算网络和计算网络工具包简介。 技术报告。 谷歌学者
建议
OpenCL-caffe:加速并支持跨平台机器学习框架 IWOCL’16:第四届OpenCL国际研讨会会议记录 2012年,深度神经网络(DNN)在视觉识别方面取得了重大突破,并迅速成为基于大数据的大规模对象识别应用中的领先机器学习算法。 基于DNN的成功部署。。。 S-Caffe:为现代GPU集群上的可扩展深度学习共同设计MPI运行时和Caffe PPoPP’17:第22届ACM SIGPLAN并行编程原理与实践研讨会论文集 ImageNet等大型数据集的可用性以及NVIDIA GPU等现代HPC设备中的大规模并行计算支持再次激发了人们对深度学习(DL)算法的兴趣。 这引发了DL框架的发展,比如。。。 S-Caffe:为现代GPU集群上的可扩展深度学习共同设计MPI运行时和Caffe 2017年PPoPP ImageNet等大型数据集的可用性以及NVIDIA GPU等现代HPC设备中的大规模并行计算支持再次激发了人们对深度学习(DL)算法的兴趣。 这引发了DL框架的发展,比如。。。