{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部分”:[[2024,6,8]],“日期-时间”:“2024-06-08T23:11:12Z”,“时间戳”:1717888272578},“出版商位置”:“美国纽约州纽约市”,“引用-计数”:70,“出版者”:“ACM”,“内容-域”:[“dl.ACM.org”],“交叉标记-re striction“:true},”short-container-title“(限制):[],“published-print”:{“date-parts”:[[2022,12,19]]},“DOI”:“10.1145\/3567955.3567961”,“type”:“proceedings-article”,“created”:{“date-ports”:[2022,12,21]],“date-time”:“2022-12-21T18:24:44Z”,“timestamp”:1671647084000},《update-policy》:“http://\/dx.DOI.org\/10.1145\/crossmark-policy”,“source“:”Crossref“,”is-referenced-by-count“:9,”title“:[“TelaMalloc:生产机器学习加速器的高效芯片内存分配”],“前缀”:“10.1145”,“作者”:[{“给定”:“马丁”,“家族”:“玛斯”,“序列”:“第一”,“从属关系”:[}“名称”:“谷歌,美国”}]}“”:“Chauhan”,“sequence”:“additional”,“affiliation”:[{“name”:“Google,USA”}]},{“given”:“Berkin”,”family“:”Ilbeyi“,”sequence“:”additional“,”affiliation:[{”name“:”Google,USA“}]}],“member”:“320”,“published-online”:{“date-parts”:[2022,12,21]};“reference”:[}“key”:”e_1_3_2_1_1_1_1“,“unstructured”:“2017。TensorFlow Lite公司。https:\/\/www.tensorflow.org\/lite\t\t\t 2017。TensorFlow Lite公司。https:\/\/www.tensorflow.org\/lite“},{“key”:“e_1_3_2_1_2”,“unstructured”:“2020。优化TensorFlow Lite运行时内存。https://blog.tensorflow.org\/2020\/10\/optimizing-tensorflow-lite-runtime.html \t\t\t 2020。优化TensorFlow Lite运行时内存。https://blog.tensorflow.org\/2020\/10\/optimizing-tensorflow-lite-runtime.html“},{“key”:“e_1_3_1_3_1”,“unstructured”:“2021。谷歌或工具:CP-SAT解算器。https:\/\/developers.google.com//optimization\/cp\/cp_solver\t\t\t 2021。谷歌或工具:CP-SAT解算器。https:\/\/developers.google.com/optimization\/cp\/cp_solver“},{“key”:“e_1_3_2_1_4_1”,“unstructured”:“2021。GoogleTensor是机器学习的里程碑。https:\/\/blog.google\/products\/pixel\/introducting-google-tensor\/\t\t\t 2021。GoogleTensor是机器学习的里程碑。https:\/\/blog.google\/products\/pixel\/introducting-google-tensor\/“},{“key”:“e_1_3_2_1_5_1”,“unstructured”:“2022。Android神经网络API。https:\/\/developer.android.com/ndk\/guides\/neuralnetworks\t\t\t 2022。Android神经网络API。https:\/\/developer.android.com/ndk\/guides\/neuralnetworks“},{“key”:“e_1_3_2_1_6_1”,“unstructured”:“2022。批准。https:\/\/github.com//google\/prof\t\t\t 2022。批准。https:\/\/github.com/google\/prof“},{“key”:“e_1_3_2_1_7_1”,“unstructured”:“2022。TensorFlow GitHub存储库:BFC分配器。https:\/\/github.com/tensorflow\/tensorflow\/blob\/master\/tenserflow\/core\/common_runtime\/bfc_allocator.h\t\t\t 2022。TensorFlow GitHub存储库:BFC分配器。https:\/\/github.com/tensorflow\/tensorflow\/blob\/master\/tenserflow\/core\/common_runtime\/bfc_allocator.h“},{“key”:“e_1_3_2_1_8_1”,“unstructured”:“2022。TensorFlow GitHub存储库:内存重新打包器。https:\/\/github.com\/tensorflow \/tensorflow \/bob\/master\/tensorflow \/compiler \/xla\/service\/memory_space_assignment_repacking.h\t\t\t\t 2022。TensorFlow GitHub存储库:内存重新打包器。https:\/\/github.com/tensorflow\/tensorflow\/blob\/master\/tenserflow\/compiler\/xla\/service\/memory_space_assignment_repacking.h“},{“密钥”:“e_1_3_2_1_9_1”,“非结构化”:“2022”。Yggdrasil决策森林。https://github.com\/google\/yggdrasil决策森林\t\t\t\t2022。Yggdrasil决策森林。https:\/\/github.com/google\/yggdrasil-decision-forests“},{“key”:“e_1_3_2_10_1”,“doi-asserted-by”:“publisher”、“doi”:“10.1145\/3306346.3322967”}、{“密钥”:“e_1_3_2_11_1”、“doi-aserted-by:”publisher“,”doi“:”10.1109\/CVPRW56347.2022.00300“}”,{”key“:”e_1_ 3_2_12_1“,”doi-assert by“:”publisher“,”doi“:”10.1145\/77489.774805“},{”key“:”e_1_3_2_13_1“,“doi-asserted-by”:“publisher”,“doi”:“10.1145\/303019.3033023”},{“key”:“e_1_ 3_2_14_1”,”doi-assert-by“:”publisher“,”doi“:”10.1007\/978-3642-00142-0_69“},“key“:”e_1_m3_2_15_1“、”volume-title“:”克里斯·莱里、道格尔·麦克劳林、乔治·内库拉、亚当·帕斯克、杰克·范德普拉斯、斯基·旺德曼米尔恩和乔·张。”,“作者”:“布拉德伯里·詹姆斯”,“年份”:“2018年”,“非结构化”:“詹姆斯·布拉德伯里、罗伊·弗罗斯蒂格、彼得·霍金斯、马修·詹姆斯·约翰逊、克里斯·利里、道格尔·麦克劳林、乔治·内库拉、亚当·帕斯克、杰克·范德普拉斯、斯凯·旺德曼-米尔恩和乔·张。2018 . JAX:Python+NumPy程序的可组合转换。http://github.com/google//jax詹姆斯·布拉德伯里(James Bradbury)、罗伊·弗罗斯蒂格(Roy Frostig)、彼得·霍金斯(Peter Hawkins)、马修·詹姆斯·约翰逊(Matthew James Johnson)、克里斯·利里(Chris Leary)、道格尔·麦克劳林(Dougal Maclaurin)、乔治·内库拉(George Necula)、亚当·帕斯科(Adam Paszke)、杰克·范德普拉斯(Jake VanderPlas)、斯基·旺德曼·米尔恩(Skye Wanderman-Mille)和乔·张(Joo Zhang)。2018.JAX:Python+NumPy程序的可组合转换。http:\/\/github.com/google\/jax“},{“key”:“e_1_3_2_16_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/TPAMI.2019.2929257“}”,{”key“:”e_1_ 3_2_17_1“,”unstructured“:”Quentin Cappart Thierry Moisan Louis-Martin Rousseau Isabeau Pr\u00e9mont-Schwarz和Andre Cire.2020。将强化学习和约束规划相结合用于组合优化。arxiv:2006.01610年。\昆汀·卡帕特·蒂埃里·莫桑·路易斯·马丁·卢梭-伊萨博(Quentin Cappart Thierry Moisan Louis-Martin Rousseau Isabeau Pr\u00e9mont-Schwarz)和安德烈·西尔(Andre Cire)。2020年,将强化学习和约束规划结合起来进行组合优化。arxiv:2006.01610.“},{“key”:“e_1_3_2_18_1”,“volume-title”:“高效数据并行管道。在ACM SIGPLAN编程语言设计与实现会议(PLDI)上。http://\/dl.ACM.org\/citution.cfm?id=1806638”,“author”:“Chambers Craig”,“year”:“2010”,“unstructured”:“Craig Chambers、Ashish Raniwala、Frances Perry、Stephen Adams、Robert Henry、Robert Bradshaw和Nathan。2010 . FlumeJava:简单、高效的数据并行管道。在ACM SIGPLAN编程语言设计与实现(PLDI)会议上。http://\/dl.acm.org\/citation.cfm?id=1806638 Craig Chambers、Ashish Raniwala、Frances Perry、Stephen Adams、Robert Henry、Robert Bradshaw和Nathan。2010年。FlumeJava:简单高效的数据并行管道。在ACM SIGPLAN编程语言设计与实现(PLDI)会议上。http://\/dl.acm.org\/citation.cfm?id=1806638“},{”key“:”e_1_3_2_19_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3485137”},“key”:“e_1_ 3_2_1_20_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/ISCA.2014.6853198“}”,{TVM:用于深度学习的自动端到端优化编译器。在第13届USENIX操作系统设计与实现研讨会(OSDI 18)上,“作者”:“陈天奇”,“年份”:“2018年”,“非结构化”:“陈天奇、蒂埃里·莫罗、江子恒、郑连民、严爱迪、沈海晨、梅根·考恩、王乐远、胡玉伟、路易斯·塞泽、卡洛斯·盖斯特林和阿文德·克里希纳穆蒂。2018 . TVM:用于深度学习的自动端到端优化编译器。在第13届USENIX操作系统设计与实现研讨会(OSDI 18)上。isbn:978-1-939133-08-3 https:\/\/www.usenix.org\/conference\/osdi18\/presentation\/chen Tianqi chen、Thierry Moreau、Ziheng Jiang、Lianmin Zheng、Eddie Yan、Haichen Shen、Meghan Cowan、Leyuan Wang、Yuwei Hu、Luis Ceze、Carlos Guestrin和Arvind Krishnamurthy。2018.TVM:用于深度学习的自动化端到端优化编译器。在第13届USENIX操作系统设计与实现研讨会(OSDI 18)上。isbn:978-1-939133-08-3 https:\/\/www.usenix.org\/conference\/osdi18\/presentation\/chen“},{“key”:“e_1_3_2_1_22_1”,“volume-title”:“训练具有次线性记忆成本的深度网。CoRR,abs\/1604.06174”,“author”:“chen Tianqi”,“year”:“2016”,“unstructured”:“Tianqi-chen,Bing Xu,Chiyuan Zhang,and Carlos Guestrin.2016”。用次线性内存开销训练深层网络。CoRR,abs\/1604.06174(2016),arXiv:1604.06174。arxiv:1604.06174陈天琦、徐冰、张志远和卡洛斯·盖斯特林。2016。用次线性内存开销训练深层网络。CoRR,abs\/1604.06174(2016),arXiv:1604.06174。arxiv:1604.06174“},{”key“:”e_1_3_2_1_23_1“,”doi-asserted-by“:”publisher“,“doi”:“10.5555\/3327144.3327258”},“key”:“e_1_3_2_1_24_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/JSSC.2016.2616357“}109\/FPL.2018.0009“},{“key”:“e_1_3_2_1_26_1”,“volume-title”:“Tcmalloc:线程缓存malloc。“,”author“:”Ghemawat Sanjay“,”year“:”2009“,”unstructured“:”Sanjay Ghemawat and Paul Menage“。2009 . Tcmalloc:线程缓存malloc。Sanjay Ghemawat和Paul Menage。2009年。Tcmalloc:线程缓存malloc。“},{”key“:”e_1_3_2_1_27_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/3464298.3476132”},“key”:“e_1_ 3_2_1_2 8_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145 \/3445814.3446762“}50“},{“键”:“e_1_3_2_1_30_1”,“卷时间”:“《机器学习与系统学报》,I.Dhillon、D.Papailiopoulos和V.Sze(编辑)。2,497\u2013511“,“作者”:“Jain Paras”,“年份”:“2020”,“非结构化”:“Paras Jain,Ajay Jain,Aniruddha Nrusimha,Amir Ghomay,Pieter Abbeel,Joseph Gonzalez,Kurt Keutzer,Ion Stoica。2020 . Checkmate:用最佳张量再物质化打破记忆墙。《机器学习与系统学报》,I.Dhillon、D.Papailiopoulos和V.Sze(编辑)。2497\u2013511。https:\/\/processes.mlsys.org\/paper\/2020\/file\/084b6fbb10729ed4da8c3d3f5a3ae7c9-paper.pdf Paras Jain、Ajay Jain、Aniruddha Nrusimha、Amir Ghomay、Pieter Abbeel、Joseph Gonzalez、Kurt Keutzer和Ion Stoica。2020年,Checkmate:用最佳张量重物质化打破记忆墙。《机器学习与系统学报》,I.Dhillon、D.Papailiopoulos和V.Sze(编辑)。2497\u2013511。https:\/\/processes.mlsys.org\/paper\/2020\/file\/084b6fbb10729ed4da8c3d3f5a3ae7c9-paper.pdf“},{“key”:“e_1_3_2_1_31_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/ISA5201.2021.00010”}},{“键”:“e_1_3_2_1_33_1”,“卷标”:“《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑)。3、387\u2013400“,“作者”:“考夫曼·山姆”,“年份”:“2021”,“非结构化”:“山姆·考夫曼、菲奇亚·福提利马纳、周燕琪、查里斯·门迪斯、苏迪普·罗伊、阿米特·萨宾和迈克·伯罗斯。2021 . 张量处理单元的学习性能模型。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑)。3387\u2013400。https:\/\/crocesses.mlsys.org\/paper\/2021\/file\/85d8ce590ad8981ca2c8286f79f59954-paper.pdf萨姆·考夫曼、菲奇亚·福提利马纳、周燕琪、查里特·门迪斯、苏迪普·罗伊、阿米特·萨宾和迈克·伯罗斯。2021.张量处理单元的学习性能模型。《机器学习与系统学报》,A.Smola、A.Dimakis和I.Stoica(编辑)。3387\u2013400。https://\/process.mlsys.org\/paper\/2021\/file\/85d8ce590ad8981ca2c8286f79f59954-paper.pdf“},{“key”:“e_1_3_2_1_34_1”,“unstructured”:“Shauharda Khadka Estelle Aflalo Mattias Marder Avrech Ben-David Santiago Miret Shie Mannor Tamir Hazan Hanlin Tang and Somdeb Majumdar.2020。使用进化图强化学习优化记忆位置。arxiv:2007.07298。\t\t\t\t肖哈达·卡德卡·埃斯特勒·阿夫拉洛·马蒂亚斯·马迪亚斯·阿夫雷希·本·达维德·圣地亚哥·米雷特·谢尔·曼诺尔·塔米尔·哈赞·汉林·唐和索姆德布·马朱达尔。2020年。使用进化图强化学习优化记忆位置。arxiv:2007.07298.“},{”key“:”e_1_3_2_1_35_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3352460.3358252”},“key”:“e_1_a_2_1_36_1”,“unstructured”:“Doug Lea和Wolfram Gloger.1996。内存分配器。\道格·李(Doug Lea)和沃尔夫拉姆·格洛格(Wolfram Gloger)。1996年。一个内存分配器。“},{”key“:”e_1_3_2_1_37_1“,”volume-title“:”XLA:TensorFlow,compiled.TensorFlow Dev Summit.“,”author“:”Leary Chris“,“year”:“2017”,“unstructured”:“Chris Leary and Todd Wang.2017.XLA:TensorLow,complied.TentorFlow Dev Summit.”Chris Learry and Todd.Wang.2017。XLA:TensorFlow,已编译。TensorFlow开发峰会。“},{”key“:”e_1_3_2_1_38_1“,”volume title“:”深度神经网络推理的高效内存管理。在MLSys 2020资源约束机器学习研讨会(ReCoML)上,“作者”:“Lee Juhyun”,“年份”:“2020”,“非结构化”:“Juhyun Lee和Yury Pisarchyk。2020 . 深层神经网络推理的高效内存管理。MLSys 2020资源约束机器学习研讨会(ReCoML 2020)。Juhyun Lee和Yury Pisarchyk。2020年,深度神经网络推理的高效内存管理。MLSys 2020资源约束机器学习研讨会(ReCoML 2020)。“},{”key“:”e_1_3_2_1_39_1“,”volume-title“:”GShard:使用条件计算和自动切分缩放巨型模型。在国际学习代表大会上。https:\/\/openreview.net\/forum?id=qrwe7XHTmYb“,”author“:”Lepikhin Dmitry“,”year“:”2021“,”unstructured“:”德米特里·勒皮钦(Dmitry Lepikhin)、李孝忠(HyoukJoong Lee)、徐元忠(Yuanchong Xu)、陈德浩(Dehao Chen)、奥汉·菲拉特(Orhan Firat)、黄延平(Yanping Huang)、马克西姆·克里坤(Maxim Krikun)、诺姆·沙泽尔(Noam Shazeer)和陈志峰(Zhifeng Chen)。2021 . GShard:具有条件计算和自动分割的缩放巨型模型。在学习代表国际会议上。https:\/\/openreview.net\/forum?id=qrwe7XHTmYb Dmitry Lepikhin、Hyouk Joong Lee、Xu Yung、Dehao Chen、Orhan Firat、Yanping Huang、Maxim Krikun、Noam Shazeer和Zhifeng Chen。2021.GShard:使用条件计算和自动切分缩放巨型模型。在学习代表国际会议上。https:\/\/openreview.net\/forum?id=qrwe7XHTmYb“},{“key”:“e_1_3_2_1_40_1”,“doi-asserted-by”:“publisher”,”doi“:“10.1145\/3339861”},“key“:”e_1_a_2_1_41_1“,”doi-assert-by“:”publisher“,杨德培和钱德培,2019年。swTVM:探索Sunway架构深度学习的自动编译。阿西夫:1904.07404。\t\t\t\t长溪刘海龙杨如军孙忠志栾林甘光文杨德培。2019.swTVM:探索自动编译以深入学习Sunway Architecture。arxiv:1904.07404.“},{”key“:”e_1_3_2_1_43_1“,”volume-title“:”第37届国际机器学习会议论文集,Hal Daum\u00e9 III和Aarti Singh(编辑)(《机器学习研究论文集》,“volume”:“6247”,“author”:“Liu Evan”,“year”:“2020”,“unstructured”:“Evan Liu、Milad Hashemi、Kevin Swersky、Parthasarathy Ranganathan和Junwhan Ahn。2020 . 缓存替换的模拟学习方法。《第37届国际机器学习会议论文集》,Hal Daum\u00e9 III和Aarti Singh(编辑)(机器学习研究论文集,第119卷)。PMLR,6237\u2013 6247。http://\/crocesses.mlr.press\/v119\/liu20f.html Evan Liu、Milad Hashemi、Kevin Swersky、Parthasarathy Ranganathan和Junwhan Ahn。2020年。缓存替换的模拟学习方法。《第37届国际机器学习会议论文集》,Hal Daum\u00e9 III和Aarti Singh(编辑)(机器学习研究论文集,第119卷)。PMLR,6237\u20136247。http:\/\/procedures.mlr.press\/v119\/liu20f.html“},{“key”:“e_1_3_2_1_44_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/MM.2020.3012883“}、{“密钥”:“e_1_3_2_1_45_1”、“doi-sserted-by“:”publisher“,”doi:“10.1109\/TC.2021.3059962”},“key“:”e_1_ 3_2_1_ 46_1“,“volume-title”:“设备放置的层次规划。在学习代表国际会议上。https:\/\/openreview.net\/pdf?id=Hkc-TeZ0W“,”author“:”Mirhoseini Azalia“,”year“:”2018“,”unstructured“:”Azalia Mirhosetini、Anna Goldie、Hieu Pham、Benoit Steiner、Quoc V.Le和Jeff Dean。2018 . 设备放置的层次规划。在学习代表国际会议上。https:\/\/openreview.net\/pdf?id=Hkc-TeZ0W Azalia Mirhosini、Anna Goldie、Hieu Pham、Benoit Steiner、Quoc V.Le和Jeff Dean。2018年,设备放置的层次规划。在学习代表国际会议上。https:\/\/openreview.net\/pdf?id=Hkc-TeZ0W“},{”key“:”e_1_3_2_1_47_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1038\/s41586-021-03544-w“}”,{“key”:“e_1_a_2_1_48_1”,“非结构化”:“Vinod Nair Sergey Bartunov Felix Gimeno Ingrid von Glehn Pawel Lichocki Ivan Lobov Brendan O\u2019 Donoghue Nicolas Sonnerat Christian Tjandraatmacja Pengming Wang Ravichandra Addanki Tharindi Hapuarachchi Thomas Keck James Keeling Pushmete Kohli Ira Ktena Yuja Li Oriol Vinyals和Yori Zwols。2021.使用神经网络求解混合整数程序。阿西夫:2012.13349。\t\t\t\t维诺德·奈尔·谢尔盖·巴图诺夫·菲利克斯·吉梅诺·英格丽德·冯·格雷恩·帕维尔·利乔基·伊万·洛波夫·布伦丹O\u2019多诺休·尼古拉斯Sonnerat Christian Tjandraatmadja Pengming Wang Ravichandra Addanki Tharindi Hapurachchi托马斯·凯克·詹姆斯·基林Pushmeet Kohli Ira Ktena Yugia Li Oriol Vinyals and Yori Zwols。2021.使用神经网络求解混合整数程序。arxiv:2012.13349.“},{”key“:”e_1_3_2_1_49_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3243176.3243212”},“key”:“e_1_a_2_1_50_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/2491956.2462163 ISPASS.2019.00042“},{”key“:”e_1_3_2_1_52_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/PACT52795.2021.00008“},{“key”:“e_1_3_2_1_53_1”,“volume-title”:“2014国际软硬件代码设计和系统合成会议(CODES+ISSS)”,“author”:“Pilato Christian”,“unstructured”:“Christian Pilato,Paolo Mantovani,Giuseppe Di Guglielmo,and Luca P.Carloni.2014。用于基于组件的SoC高级合成的系统级内存优化。2014年国际软硬件协同设计与系统综合会议(CODES+ISSS)。克里斯蒂安·皮拉托、保罗·曼托瓦尼、朱塞佩·迪·古列尔莫和卢卡·P·卡洛尼。2014.基于组件的SoC高级合成的系统级内存优化。2014年国际软硬件协同设计与系统综合会议(CODES+ISSS)。“},{”key“:”e_1_3_2_1_54_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ACCESS.2020.3012084”},“key”:“e_1_3_2_1_55_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3503465“}”,{“,”年份“:”2021“,”非结构化“:”阿南达·萨马杰达尔(Ananda Samajdar)、扬·莫里茨·约瑟夫(Jan Moritz Joseph)、马修·丹顿(Matthew Denton)和塔沙·克里希纳(Tushar Krishna)。2021 . AIRCHITECT:学习定制建筑设计和映射空间。https:\/\/doi.org\/10.48550\/ARXIV.2108.08295 10.48550\/ARXIV.2108.08295 Ananda Samajdar、Jan Moritz Joseph、Matthew Denton和Tushar Krishna。2021.AIRCHITECT:学习定制建筑设计和映射空间。https:\/\/doi.org\/10.48550\/ARXIV.2108.08295“},{”key“:”e_1_3_2_1_57_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/SC.Companion.2012.111”},“key”:“e_1_s2_5_1”,“unstructured”:“Taro Sekiyama Takashi Imamichi Haruki Imai and Rudy Raymond.2018。深度神经网络的轮廓引导记忆优化。arXiv预印arXiv:1804.10001。\太郎Sekiyama Takashi Imamichi Haruki Imai和Rudy Raymond。2018.深度神经网络的轮廓引导内存优化。arXiv预印本arXiv:1804.10001.“},{”key“:”e_1_3_2_1_59_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/HPCA51647.2021.00075”},“key”:“e_1_A_2_1_60_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/29018.2901355“}”,{“key“”:”e_ 1_3_2 _1_61_1“”,“volume-title”:“动态存储分配:A Survey and《评论》,“作者”:“Wilson Paul R.”,“非结构化”:“Paul R.Wilson、Mark S.Johnstone、Michael Neely和David Boles。1995年,《动态存储分配:调查与评论》。Springer-Verlag,1\u2013116。保罗·威尔逊(Paul R.Wilson)、马克·约翰斯通(Mark S.Johnstone)、迈克尔·尼利(Michael Neely)和大卫·博尔斯(David Boles)。1995年,《动态存储分配:调查与评论》。Springer-Verlag,1\u2013116.“},{”key“:”e_1_3_2_1_62_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ISA52012.021.00086”},“key”:“e_1_ 3_2_1 _63_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3376.3378514“}”,{“key“”:”#cr-split#-e_1_3_2_1_64_1.1“,”非结构化“:”阿米尔·亚兹丹巴赫什(Amir Yazdanbakhsh)、基兰·塞沙德里·伯金(Kiran Seshadri Berkin Akin James Laudon)和拉维·纳拉亚纳斯瓦米(Ravi Narayanaswami)。2021.卷积神经网络Edge TPU加速器的评估。https:\/\/doi.org\/10.48550\/ARXIV.2102.10423 10.48550\/ARXIV.2102.10423“},{“key”:“#cr-split#-e_1_3_2_1_64_1.2”,“unstructured”:“Amir Yazdanbakhsh Kiran Seshadri Berkin Akin James Laudon and Ravi Narayanasawami.2021。卷积神经网络边缘TPU加速器的评估。https:\/\/doi.org\/10.48550\/ARXIV.2102.10423“},{”key“:”e_1_3_2_1_65_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/2684746.2689060”},“key”:“e_1_a_2_1_66_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3503222507767“}”,{Yanqi Zhou Xuanyi Dong Berkin Akin Mingxing Tan Daiyi Peng Tianjian Meng Amir Yazdanbakhsh Da Huang Ravi Narayanaswami和James Laudon。2021.重新思考神经架构和硬件加速器的协同设计。arxiv:2102.08619。\t\t\t\t Yanqi Zhou Xuanyi Dong Berkin Akin Mingxing Tan Daiyi Peng Tianjian Meng Amir Yazdanbakhsh Da Huang Ravi Narayanaswami和James Laudon Yanzi Yanzin Yanyi Tan Yazdan Bakhsh Da Hung Ravi Naramanaswami Narayanasswami and James。2021.重新思考神经架构和硬件加速器的联合设计。arxiv:2102.08619.“},{”key“:”e_1_3_2_1_68_1“,”volume-title“:”机器学习与系统学报,D.Marculescu,Y.Chi,and C.Wu(编辑).4,141\u2013152“,“作者”:“周延奇”,“年份”:“2022”,“非结构化”:“周燕琪、董宣义、孟天健、谭明兴、阿金、彭代伊、阿米尔·亚兹丹巴赫什、大黄、拉维·纳拉亚纳斯瓦米和詹姆斯·劳登。2022 . 面向神经网络和加速器的协同设计。《机器学习与系统学报》,D.Marculescu、Y.Chi和C.Wu(编辑)。4,141\u2013152。https:\/\/processes.mlsys.org\/paper\/2022\/file\/31fefc0e570cb3860f2a6d4b38c6490d-paper.pdf周燕琪、董宣义、孟天健、谭明兴、Berkin Akin、彭黛仪、阿米尔·亚兹丹巴赫什、大黄、拉维·纳拉亚纳斯瓦米和詹姆斯·劳登。2022.走向神经网络和加速器的协同设计。在《机器学习与系统学报》中,D.Marculescu、Y.Chi和C.Wu(编辑)。4,141\u2013152。https:\/\/processes.mlsys.org\/paper\/2022\/file\/31fefc0e570cb3860f2a6d4b38c6490d-paper.pdf“},{“key”:“e_1_3_2_1_69_1”,“volume-title”:“神经信息处理系统的进展”,“author”:“周延奇”,“year”:“2020”,“unstructured”:“周燕琪、苏迪普·罗伊、阿米拉利·阿卜杜拉希迪、丹尼尔·王、马化腾、徐秋明、刘汉晓、菲奇亚·福提利塔、沈王、安娜·戈迪、阿扎莉亚·米罗塞尼和詹姆斯·劳登。2020年。ML编译器的可传输图形优化程序。《神经信息处理系统进展》,H.Larochelle、M.Ranzato、R.Hadsell、M.F.Balcan和H.Lin(编辑)。33,https:\/\/procedures.neurips.cc\/paper\/2020\/file\/9f29450d2eb58feb555078bdefe28aa5-paper.pdf周燕琪、苏迪普·罗伊、阿米拉里·阿卜杜拉希迪、丹尼尔·黄、彼得·马、徐秋明、刘汉晓、Phitchaya Phothilimtha、Shen Wang、安娜·戈迪、阿扎利亚·米罗塞尼和詹姆斯·劳登。2020年。ML编译器的可传输图形优化程序。《神经信息处理系统进展》,H.Larochelle、M.Ranzato、R.Hadsell、M.F.Balcan和H.Lin(编辑)。33,https:\/\/procedures.neurips.cc\/paper\/2020\/file\/9f29450d2eb58feb555078bdefe28aa5-paper.pdf“}],“event”:{“name”:“ASPLOS’23:第28届ACM编程语言和操作系统架构支持国际会议,第1卷”,“location”:“加拿大不列颠哥伦比亚省温哥华”,“缩写词”:“ASPLOS’23”,“赞助商”:[“SIGARCH ACM计算机体系结构特别兴趣小组“,“SIGOPS ACM操作系统特别兴趣小组”,“SIGPLAN ACM编程语言特别兴趣小组original-title“:[],”link“:[{”URL“:”https:\/\/dl.acm.org\/doi\/pdf\/10.1145\/3567955.3567961“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[2023,3,27]],”date-time“:“2023-03-27T19:12:10Z”,“timestamp”:1679944330000},“score”:1,“资源“:{“primary”:{”URL“:”https:\/\/dl.acm.org\/doi\/10.1145\/3567955.3567961“}},”副标题“:[],”短标题“:[],”已发布“:{”日期部分“:[2022,12,19]]},“引用计数”:70,“alternative-id”:[“10.1145\/356755.3567961”,“10.1145\/3567955”],“URL”:“http://\/dx.doi.org\/10.1145 \/35679 55.35679”,“关系”:{},“主题”:[],“已发布”:{“日期部分”:[[2022,12,19]]},”断言“:[{”value“:”2022-12-21“,”order“:2,”name“:”published“,”label“:”published“,”group“:{”name“:”publication_history“,”标签“:”publication history“}}]}}