{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,5,2],“日期时间”:“2024-05-02T05:08:11Z”,“时间戳”:1714626491621},“出版商位置”:“美国纽约州纽约市”,“参考计数”:38,“出版者”:“ACM”,“资助者”:[{“名称”:“英国工程和物理科学研究委员会(EPSRC)”,“奖励”:[“EP\/S001530\/1,EP\/R018677\/1”]},{“name”:“European Research Council(ERC)”,“adward”:[“805194”]}],“content-domain”:{“domain”:[“dl.acm.org”],“crossmark-restriction”:true},“short-container-title”:[],“published-print”:{“date-parts”:[2022,4,5]}、“DOI”:“10.1145\/3517207.3526978”,“type”“:”procesdings-article“,”created“:{”date-parts“:[2022,3,29]],“date-time”:“2022-03-29T22:09:26Z”,“timestamp”:1648591766000},“update-policy”:“http://\/dx.doi.org\/10.1145\/crossmark-policy”,“source”:”Crossref“,”is-referenced-by-count“:4,”title“:[”深入学习微控制器“],”prefix“:”10.1145“,“author”:[{”given“:”Filip“,”family“:”Svoboda“,”sequence“:”first“,”affiliation“:[{“名称”:“剑桥大学”}]},{“given”:“Javier”,“family”:“Fernandez-Marques”,“sequence”:“additional”,“affiliation”:[{“name”:“Samsung AI”}]neneneep,{”given“:”Edgar“,”family“:”Liberis“,”sequence“:”additional“”:“剑桥大学和三星AI”}]}],“成员”:“320”,“在线发布”:{“日期部分”:[2022,4,5]]},“参考”:[{“密钥”:“e_1_3_2_1_1_1”,“非结构化”:“Mart\u00edn Abadi Ashish Agarwal Paul Barham Eugene Brevdo Zhifeng Chen Craig Citro Greg S。Corrado Andy Davis Jeffrey Dean Matthieu Devin Sanjay Ghemawat Ian Goodfellow Andrew Harp Geoffrey Irving Michael Isard Yangqing Jia Rafal Jozefowicz Lukasz Kaiser Manjunath Kudlur Josh Levenberg Dandelion Man\u00e9 Rajat Monga Sherry Moore Derek Murray Chris Olah Mike Schuster Jonathon Shlens Benoit Steiner Ilya Sutskever Kunal Talwar Paul塔克文森特·范霍克(Tucker Vincent Vanhoucke Vijay Vasudevan Fernanda Vi\u00e9gas Oriol Vinyals)、皮特典狱长马丁·瓦滕伯格(Martin Wattenberg)、马丁·威克(Martin-Wicke Yuan Yu)和郑晓强(Xiaoqiang Zheng)。2015.TensorFlow:异构系统上的大规模机器学习。https:\/\/www.tensorflow.org\/软件可从tensorfflow.org.Mart\u00edn Abadi Ashish Agarwal Paul Barham Eugene Brevdo Zhifeng Chen Craig Citro Greg S获得。Corrado Andy Davis Jeffrey Dean Matthieu Devin Sanjay Ghemawat Ian Goodfellow Andrew Harp Geoffrey Irving Michael Isard Yangqing Jia Rafal Jozefowicz Lukasz Kaiser Manjunath Kudlur Josh Levenberg Dandelion Man\u00e9 Rajat Monga Sherry Moore Derek Murray Chris Olah Mike Schuster Jonathon Shlens Benoit Steiner Ilya Sutskever Kunal Talwar Paul塔克文森特·范霍克(Tucker Vincent Vanhoucke Vijay Vasudevan Fernanda Vi\u00e9gas Oriol Vinyals)、皮特典狱长马丁·瓦滕伯格(Martin Wattenberg)、马丁·威克(Martin-Wicke Yuan Yu)和郑晓强(Xiaoqiang Zheng)。2015.TensorFlow:异构系统上的大规模机器学习。https:\/\/www.tensorflow.org \/可从tensorfflow.org获得的软件Colby Banbury、Chuteng Zhou、Igor Fedorov、Ramon Matas、Urmish Thakker、Dibakar Gope、Vijay Janapa Reddi、Matthew Mattina和Paul Whatmough。2021 . MicroNets:用于在商品微控制器上部署TinyML应用程序的神经网络架构。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑),第3卷。517--532. https:\/\/processes.mlsys.org\/paper\/2021\/file\/a3c65c2974270fd093ee8a9bf8ae7d0b-paper.pdf科尔比·班伯里、楚滕·周、伊戈尔·费多罗夫、拉蒙·马塔斯、乌尔米什·塔克尔、迪巴卡尔·戈佩、维杰伊·贾纳帕·雷迪、马修·马蒂纳和保罗·沃特莫。2021.MicroNets:在商品微控制器上部署TinyML应用程序的神经网络架构。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑),第3卷。517--532. https:\/\/progressions.mlys.org/paper\/2021\/file\/a3c65c2974270fd093ee8a9bf8ae7d0b paper.pdf“},{“key”:“e_1_3_2_4_1”,“doi断言者”:“publisher”,“doi”:“10.1109\/TCSVT.2016.2592330”},{“key”:“e_1_3_2_5_1”,“doi断言者”:“publisher”,“doi”:“10.1145\/27422060.2743766”},{“key”:“e_1_3_2_2 1_6_1”,“非结构化”:“Fran \u00e7ois Chollet等人,2015。凯拉斯。https:\/\/keras.io.Fran\u00e7ois Chollet等人,2015年。凯拉斯。https:\/\/keras.io.“},{“key”:“e_1_3_2_1_7_1”,“volume-title”:“Nat Jeffries,Jian Li,Nick Kreeger,Ian Nappier,Meghna Natraj,Tiezhen Wang,Pete Warden,and Rocky Rhodes。”,“作者”:“David Robert”,“年份”:“2021”,“非结构化”:“罗伯特·戴维(Robert David)、杰瑞德·杜克(Jared Duke)、阿德瓦特·贾恩(Advait Jain)、维杰伊·贾纳帕·雷迪(Vijay Janapa Reddi)、纳特·杰弗里斯(Nat Jeffries)、李健(Jian Li)、尼克·克莱格(Nick Kreeger)、伊恩·纳皮尔(Ian Nappier)、梅格。2021 . TensorFlow Lite Micro:TinyML系统的嵌入式机器学习。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑),第3卷。800--811. https:\/\/processes.mlsys.org\/paper\/2021\/file\/d2ddea18f00665ce8623e36bd4e3c7c5-paper.pdf罗伯特·戴维、贾里德·杜克、阿德瓦伊特·贾因、维杰伊·贾纳帕·雷迪、纳特·杰弗里斯、李健、尼克·克莱格、伊恩·纳皮尔、梅格纳·纳特拉杰、王铁镇、皮特·沃登和罗基·罗德斯。TensorFlow Lite Micro:TinyML系统的嵌入式机器学习。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑),第3卷。800到811之间。https:\/\/processes.mlsys.org\/paper\/2021\/file\/d2ddea18f00665ce8623e36bd4e3c7c5-paper.pdf“},{”key“:”e_1_3_2_1_8_1“,”doi-asserted-by“:”crossref“,“unstructured”:“J.Deng W.Dong R.Socher L.-J.Li K.Li和L.Fei-Fei.2009。ImageNet:一个大规模的层次化图像数据库。在CVPR09中。J.Deng W.Dong R.Socher L.-J.Li K.Li和L.Fei-Fei。2009年,ImageNet:一个大尺度层次图像数据库。在CVPR09.“,”DOI“:”10.1109\/CVPR.2009.5206848“},{”key“:”e_1_3_2_1_9_1“,”DOI-asserted-by“:”publisher“,“DOI”:“10.1016\/j.compag.2010.07.006”}中,{“key”:“e_1_ 3_2_1_10_1”,“volume-title”:“深度压缩:使用修剪、训练量化和Huffman编码压缩深度神经网络。CoRRabs\/1510.00149”,”author“:”宋汉“,”年份“:”2015“,”非结构化”:宋汉等,2015年。深度压缩:使用修剪、训练量化和哈夫曼编码压缩深度神经网络。CoRR abs 1510.00149(2015)。arXiv:1510.00149 http://\/arXiv.org\/abs\/151000149 Song Han等人,2015年。深度压缩:使用修剪、训练量化和哈夫曼编码压缩深度神经网络。CoRR abs 1510.00149(2015)。arXiv:15100.00149 http://\/arXiv.org\/abs\/151000149“},{”key“:”e_1_3_2_11_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1145\/3020078.3021745“}”,{“key”:“e_1_3_2_12_1”,“unstructured”:“Kaiming He等人,2015。用于图像识别的深度残差学习。CoRR abs \/1512.03385(2015)。arXiv:15122.03385 http:\/\/arXiv.org\/abs\/1512.03385何凯明等人,2015。用于图像识别的深度残差学习。CoRR abs \/1512.03385(2015)。arXiv:15122.03385 http://\/arXiv.org\/abs\/1512.03385“},{“key”:“e_1_3_2_13_1”,“doi-asserted-by”:“publisher”、“doi”:“10.1007\/978-3-030-01234-2_48”}、{“密钥”:“e_1_3_2_14_1”、”doi-assert-by“:”publisher“,”doi“:”10.1111\/2041-210X.12955“}、“key“:”e_1_ 3_2_15_1“,“首页”:“710”,“文章标题”:“使用信封探测识别/定位武器火力的系统和方法”,“卷”:“7”,“作者”:“福尔摩斯·弗雷德·H”,“年份”:“2010”,“非结构化”:“弗雷德·霍姆斯、凯文·巴克斯特和肯·费希尔。2010 . 使用包络探测识别/定位武器火力的系统和方法。美国专利7,710,278。Fred H Holmes、Kevin Baxter和Ken Fisher。2010.使用包络探测识别/定位武器火力的系统和方法。美国专利7710278.“,”journal-title“:”US Patent“},{”key“:”e_1_3_2_1_16_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109 \/ISSCC.2014.6757323”},“key”:“e_1_ 3_2_17_1”,“first page”:”9“,”article-title”:“构造最小冗余码的方法”,“volume”:“40”,“author”:“Huffman David A.”,“year”:“1952”,“unstructured“:”David A。哈夫曼。1952 . 最小冗余码的构造方法。《无线电工程师学会会刊》40,9(1952年9月),1098--1101。大卫·A·哈夫曼。1952.一种用于构造最小冗余码的方法。《无线电工程师学会会报》40,9(1952年9月),1098--1101。“,”journal-title“:《无线电工程师协会会报》”},{“key”:“e_1_3_2_18_1”,“volume-title”:“SqueezeNet:AlexNet级精度,参数少50倍,模型大小<1MB。CoRR abs \/1602.07360”,“author”:“Iandola Forrest N.”,《年份》:“2016”,“非结构化”:“Forrest N.Iandola、Matthew W.Moskewicz、Khalid Ashraf、Song Han、William J.Dally和Kurt Keutzer。2016.SqueezeNet:AlexNet级精度,参数少50倍,模型大小小于1MB。CoRR abs \/1602.07360(2016)。arXiv:1602.07360 http://\/arXiv.org\/abs\/1602.07360Forrest N.Iandola、Matthew W.Moskewicz、Khalid Ashraf、Song Han、William J.Dally和Kurt Keutzer。2016年。SqueezeNet:AlexNet级精度,参数减少50倍,型号尺寸<1MB。CoRR abs \/1602.07360(2016)。arXiv:1602.07360 http://\/arXiv.org\/abs\/1602.07360},{“key”:“e_1_3_2_1_19_1”,“volume-title”:“神经网络的量化和训练,以实现高效的整数算术推理。在IEEE计算机视觉和模式识别会议(CVPR)中。”,“author”:“Jacob Benoit”,“year”:“2018”,“unstructured”:“Benoit Jacob、Skirmantas Kligys、Bo Chen、Menglong Zhu、Matthew Tang、Andrew Howard、Hartwig Adam和Dmitry Kalenichenko。2018 . 用于高效整数算术推理的神经网络量化和训练。在IEEE计算机视觉和模式识别会议(CVPR)上。Benoit Jacob、Skirmantas Kligys、Bo Chen、Menglong Zhu、Matthew Tang、Andrew Howard、Hartwig Adam和Dmitry Kalenichenko。2018年,神经网络的量化和训练,用于高效的整数算术推理。在IEEE计算机视觉和模式识别会议(CVPR)上。},{“key”:“e_1_3_2_1_20_1”,“volume-title”:“量化深度卷积网络以进行有效推理:白皮书。CoRR abs \/1806.08342”,“author”:“Krishnamoorthi Raghuraman”,“year”:“2018”,“unstructured”:“Raghuraman-Krishnamanorthi.2018”。量化深度卷积网络以进行有效推理:白皮书。CoRR abs(2018年)。arXiv:1806.08342 http://\/arXiv.org\/abs\/1806.08342-Raghuraman Krishnamoorthi。2018.量化深度卷积网络以进行有效推断:白皮书。CoRR abs(2018年)。arXiv:1806.08342 http://\/arXiv.org\/abs\/1806.08342},{“key”:“e_1_3_2_1_21_1”,“unstructured”:“Alex Krizhevsky等人,2012。基于深度卷积神经网络的ImageNet分类。神经信息处理系统进展25。Curran Associates Inc.公司1097--1105。Alex Krizhevsky等人,2012年。基于深度卷积神经网络的ImageNet分类。神经信息处理系统进展25。Curran Associates Inc.1097--1105.“},{“key”:“e_1_3_2_1_22_1”,“volume-title”:“CMSIS-NN:Arm Cortex-M CPU的高效神经网络内核。CoRR abs \/1801.06601”,“author”:“Lai Liangzheng”,“year”:“2018”,“unstructured”:“Liangzhen Lai,Naveen Suda,and Vikas Chandra。2018。CMSIS-NN:用于Arm Cortex-M CPU的高效神经网络内核。CoRR abs\/180.106601(2018)。arXiv:1801.06601赖良珍、纳文·苏达和维卡斯·钱德拉。2018.CMSIS-NN:用于Arm Cortex-M CPU的高效神经网络内核。CoRR abs \/1801.06601(2018)。arXiv:1801.06601“},{“key”:“e_1_3_2_1_23_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/3437984.3458836“}”,{”key“:”e_1_ 3_2_1_2 4_1“,”volume-title“:”Lane“,”author“:”Liberis Edgar“,”year“2019”,“unstructured”:“Edgar Liberis and Nicholas D.Lane.2019”。微控制器上的神经网络:通过运算符重新排序节省推理时的内存。CoRR abs 1910.05110(2019年)。arXiv:1910.05110 http:\/\/arXiv.org\/abs\/1910.0511 Edgar Liberis和Nicholas D.Lane。2019.微控制器上的神经网络:通过操作员重新排序在推理时节省内存。CoRR abs\/19105110(2019)。arXiv:1910.05110 http://\/arXiv.org\/abs\/1910.0511“},{“key”:“e_1_3_2_1_25_1”,“volume-title”:“深卷积网络的定点量化。CoRR abs\/1511.06393”,“author”:“Lin Darryl Dexu”,“year”:“2015”,“unstructured”:“Darryl-Dexu Lin,Sachin S.Talathi,and V.Sreekanth Annapuredy.2015。深卷积网络的不动点量化。CoRR abs \/1511.06393(2015)。arXiv:1511.06393 Darryl Dexu Lin、Sachin S.Talathi和V.Sreekanth Annapuredy。2015.深度卷积网络的定点量化。CoRR abs\/15101106393(2015年)。arXiv:1511.06393“},{“key”:“e_1_3_2_1_26_1”,“volume-title”:“庄甘和宋汉。”,“author”:“林基”,“年份”:“2020年”,“非结构化”:“吉林、魏明晨、林育军、约翰·科恩、庄甘和宋汉。2020年。MCUNet:物联网设备上的微小深度学习。神经信息处理系统进展,H.Larochelle,M.Ranzato,R。Hadsell,M.F.Balcan和H.Lin(编辑),第33卷。Curran Associates公司。,11711--11722. https:\/\/processes.neurips.cc\/paper\/2020\/file\/86c51678350f656dcc7f490a43946ee5-paper.pdf吉林、魏明晨、林育君、约翰·科恩、庄干和宋涵。2020年,MCUNet:物联网设备上的微小深度学习。《神经信息处理系统进展》,H.Larochelle、M.Ranzato、R.Hadsell、M.F.Balcan和H.Lin(编辑),第33卷。Curran Associates公司,11711--11722。https:\/\/procedures.neurips.cc\/paper\/2020\/file\/86c51678350f656dcc7f490a43946ee5-paper.pdf“},{“key”:“e_1_3_2_1_27_1”,“first page”:”I“,”article-title“:”Bayesian Compression for Deep Learning“,”volume“:”30“,”author“:”Louizos Christos“,”year“:”2017“,”unstructured“:”Christos Louizos、Karen Ullrich和Max Welling。2017 . 用于深度学习的贝叶斯压缩。神经信息处理系统进展30,I。Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑)。Curran Associates公司,3288--3298。Christos Louizos、Karen Ullrich和Max Welling。2017.深度学习贝叶斯压缩。《神经信息处理系统进展》30,I.Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑)。Curran Associates,Inc.,3288--3298.“,”journal-title“:“神经信息处理系统的进展”},{“key”:“e_1_3_2_1_28_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/JIOT.2017.2731301“},”{“key”:”e_3_2_2_1_29_1“,”doi-assert-by“:”publisher“,“doi”:“10.1109\/CVPR.2018.00474”}doi-asserted-by“:”publisher“,”doi“:”10.1109\/WCNCW.2012.6215496“},{”key“:”e_1_3_2_1_31_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1109\/IISWC.2018.8573527“}”,{“key”:“e_1_s2_32_1_32_1”,”unstructured“:”STMicroelectronics.2019。STM32高性能MCU。(2019). ST微电子。2019.STM32高性能MCU。(2019).“},{”key“:”e_1_3_2_1_33_1“,”volume title“:”Emer“,”author“:”Sze Vivienne“,”year“:”2017“,”nonstructured“:”Vivienne Sze,Yu Xin Chen,Tien Ju Yang,and Joel S.Emer.2017.深度神经网络的有效处理:教程和调查.CoRR abs\/1703.9039(2017).arXiv:1703.09039 Vivienne Sze,Yu Xin Chen,Tien Ju Yang,and Joel S。2017年2月。深度神经网络的高效处理:教程和调查。CoRR abs \/1703.09039(2017)。arXiv:1703.09039“},{“key”:“e_1_3_2_1_34_1”,“volume-title”:“HAQ:硬件自动量化。CoRR abs\/1811.08886”,“author”:“Wang Kuan”,“year”:“2018”,“unstructured”:“Kuan Wang,Zhijian Liu,Yujun Lin,Ji Lin,and Song Han.2018.HAQ:Hardware-Aware Automated Quantization.CoRR abs\/1811.0 8886(2018)arXiv:1811.08886王宽、刘志坚、林育军、林季林和宋汉。2018年HAQ:硬件自动量化。CoRR abs 1811.08886(2018年)。arXiv:1811.08886“},{“key”:“e_1_3_2_1_35_1”,“volume-title”:“神经信息处理系统的进展29”,“author”:“王云和”,“unstructured”:“Yunhe Wang,Chang Xu,Shan You,Dacheng Tao,Chao Xu。2016。CNNpack:在频域中封装卷积神经网络。《神经信息处理系统进展》29,D.D.Lee、M.Sugiyama、U.V.Luxburg、I.Guyon和R.Garnett(编辑)。Curran Associates公司,253--261。王云和、常旭、单友、陶大成和徐超。2016年。CNNpack:频域中的封装卷积神经网络。《神经信息处理系统进展》29,D.D.Lee、M.Sugiyama、U.V.Luxburg、I.Guyon和R.Garnett(编辑)。Curran Associates,Inc.,253--261.“},{“key”:“e_1_3_2_1_36_1”,“非结构化”:“Pete Warden和Daniel Situnayake,2019。微型ML。O'Reilly Media Incorporated公司。皮特·沃登(Pete Warden)和丹尼尔·西图纳亚克(Daniel Situnayake)。2019年,TinyML。O'Reilly Media Incorporated公司。“},{”key“:”e_1_3_2_1_37_1“,”volume-title“:”Deep Neural Network的自适应量化。CoRR abs \/1712.01048“,”author“:”Zhou Yiren“,”year“:”2017“,”unstructured“:”Yien Zhou,Seyed-Mohsen Moosavi-Dezfouli,Ngai-Man Cheung,and Pascal Frossard。2017。深度神经网络的自适应量化。CoRR abs \/1712.01048(2017)。arXiv:1712.01048周一仁、Seyed-Mohsen Moosavi-Dezfouli、Ngai-Man Cheung和Pascal Frossard。2017.深度神经网络的自适应量化。CoRR abs \/1712.01048(2017)。arXiv:1712.01048“},{”key“:”e_1_3_2_1_38_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TIT.1977.1055714”}],“event”:{”name“:”EuroSys'22:“第十七届欧洲计算机系统会议”,“location”:“Rennes France”,“缩写词”:“EuroSys'22”,“赞助商”:[“SIGOPS ACM操作系统特别兴趣小组”]},“container-title”:[”第二届欧洲机器学习与系统研讨会论文集“],“original-title”:[],“link”:[{“URL”:“https:\/\/dl.acm.org\/doi\/pdf\/10.1145\/3517207.3526978”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2023,4,5]],“date-time”:”2023-04-05T10:08:28Z“,”timestamp“:1680689308000},”score“:1,”resource“:{”primary”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3517207.3526978”}},“subtitle”:[“部署成本和挑战研究”],“short title”:[],“issued”:{“date-parts”:[2022,4,5]]},‘references-count’:38,“alternative-id”:[”10.1145\/351727.3526998“,”10.1145 7207“],”URL“:”http:\/\/dx.doi.org\/10.1145\/3517207.3526978“,”关系“:{},”主题“:[],”发布“:{”日期部分“:[2022,4,5]]},“断言”:[{”值“:”2022-04-05“,”顺序“:2,”名称“:”发布“,”标签“:”已发布“,“组”:{“名称”:“publication_history”,“标签”:“发布历史”}}}