{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部件”:[[2024,4,29]],“日期-时间”:“2024-04-29T20:31:47Z”,“时间戳”:171442270773},“参考-计数”:73,“发布者”:“爱思唯尔BV”,“许可证”:[{“开始”:{-“日期-零件”:[2022,10,1]],”日期-时间“:”2022-10-01T00:00:00Z“,”timestamp“:1664582400000},”content-version“:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.elsevier.com/tdm\/userlicense\/1.0\/”},{“start”:{“date-parts”:[2022,10,1]],“date-time”:“2022-10-01T00:00:00Z”,“timestamp”:1664582400000},“content-version”:“stm-asf”,“delay-in-days”:“0”,“URL“https:\\/doi.org\/10.15223\/policy-017“},{“开始”:{“日期部分”:[[2022,10,1]],“日期时间”:“2022-10-01T00:00:00Z”,“timestamp”:1664582400000},“content-version”:“stm-asf”,“delay-in-days”:0,“URL”:“https:\/\/doi.org\/10.15223\/policy-037”},{“start”:{“date-parts”:[[2022,10,1]],“date-time”:“2022-10-01T00:00”,“时间戳”:1664.582400000{,“content-version“stm-as”,“delay-in-days“:0,”URL“:”https:\/\/doi.org\/10.15223\/policy-012“},{“start”:{“date-parts”:[[2022,10,1]],“date-time”:“2022-10-01T00:00:00Z”,“timestamp”:1664582400000},“content-version”:“stm-asf”,“delay-in-days”:0,“URL”:“https:\/\/doi.org\/10.15223\/policy-029”},{“start”:{(日期-部件):[[2022,10,1]]1664582400000},“content-version”:“stm-asf”,“delay-in-days”:0,“URL”:“https:\/\/doi.org\/10.15223\/policy-004”}],“content-domain”:{“domain”(域):[“elsevier.com”,“sciencedirect.com”],“crossmark-restriction”:true},“short-container-title”:[“Future Generation Computer Systems”(未来一代计算机系统)],“published-print”(发布-print):{”date-parts“:[2022,10]]},”doi“10.1016\/j.Future.2022.04.031”,“type”:“journal-article”,“created”(创建):{“日期部分”:[[2022,5,4]],“date-time”:“2022-05-04T10:18:35Z”,“timestamp”:1651659515000},“page”:“44-56”,“update-policy”:”http://\/dx.doi.org\/10.1016\/elsevier_cm_policy“,”source“:”Crossref“,“is-referenced-by-count”:13,“title”:[“推理感知卷积神经网络修剪”],“prefix”:“10.1016”,”volume“:“135”,“author”:[{“给定”:“Tejaja”lal“,”family“:”Choudhary“,“sequence”:“first”,“affiliation”:[]},{“ORCID”:“http://\/ORCID.org\/00000-0002-3649-1388”,“authenticated-ORCID”:false,“given”:”Vipul“,”family“:”Mishra“,”sequence“:”additional“,”affiliance“:[]{,”given“:”Anurag“,”家族“:”Goswami“,”序列“:”附加“,”从属关系“:[]},“giving”:“Jagannathan”,“family”:“Sarangapani”,“sequence”:“附加”,“affiliation”:[]}],“member”:“78”,“reference”:[{“key”:“10.1016\/j.future.2022.04.031_b1”,“series-title”:“2009 IEEE计算机视觉与模式识别会议”,“首页”:“248”,“article-title”:”Imagenet:一个大规模分层图像数据库“,”author:“Deng”,“year”:“2009},{“key”:”10.1016\/j.future.2022.0 4.031_b2“,”article-title“:“Faster r-cnn:Towards real-time object detection with region proposal networks”,“volume”:“28”,“author”:“Ren”,“year”:“2015”,“journal-title”:“Adv.Neural Inf.Process.Syst.”},{“key”:”10.1016\/j.future.2022.04.031_b3“,”article-title“:”Imagenet classification with deep convolutional Neural networks“,”:“25”,“作者”:“Krizhevsky”,“年份”:“2012”,“期刊标题”:“Adv.Neural Inf.Process.Syst.”},{“issue”:“5\u20136”,“key”:“10.1016\/j.future.202.04.031_b4”,“doi断言者”:“crossref”,“首页”:“602”,“doi”:“10.1016\/j.neuet.2005.06.0042”,“文章标题”:“双向LSTM和其他神经网络架构的框架音素分类”,“volume”:“18”,“author”:“Graves”,“年”:“2005”,“新闻标题”:“神经网络”},{“关键”:“10.1016\/j.future.2022.04.031_b5”,“系列标题”:《机器学习国际会议》,“首页”:“2048”,“文章标题”:”展示、出席和讲述:用视觉注意力生成神经图像字幕“,“作者”:“徐”,“年份”:“2015”},“doi-asserted-by”:“crossref”,“first page”:“2278”,“doi”:“10.1109\/5.726791”,“article-title”:“基于梯度的学习应用于文档识别”,“volume”:”86“,“author”:“LeCun”,“year”:“1998”,“journal-title“:”Proc.IEEE“},{“key”:《电气与电子工程师协会》10.1016\/j.future.2022.04.031_b7”,“doi-asserted-by”:”crossreff“,“unstructured”:“K.He,X.Zhang,S.Ren”、j。Sun,图像识别的深度残差学习,摘自:IEEE计算机视觉和模式识别会议论文集,2016年,第770\u2013778页。“,”DOI“:”10.1109\/CVPR.2016.90“},{“key”:“10.1016\/j.future.2022.04.031_b8”,“series-title”:“用于大规模图像识别的非常深卷积网络”,“author”:“Simonyan”,“year”:“2014年“},{“key”:“10.1016\/j.future.2022.04.031_b9”,“series-title”:“欧洲计算机视觉会议”,“首页”:“21”,“文章-标题”:“Ssd:单次多盒探测器”,“作者”:“刘”,“年份”:“2016”},}“密钥”:“101016\/j.futere.2022.03.031_b10”,“doi-asserted-by”:“crossref”,“非结构化”:“T.j.Yang,Y.H.Chen,V。Sze,《使用能量感知修剪设计节能卷积神经网络》,载于:《IEEE计算机视觉和模式识别会议论文集》,2017年,第5687\u20135695页。“,DOI”:“10.1109\/CVPR.2017.643”},{“key”:“10.1016\/j.future.202.04.031_b11”,“DOI asserted by”:“crossref”,“first page”:“148”,“DOI”:“10.1016\/j.neunet.2019.04.021“,“article-title”:“深度神经网络中用于加速推理的冗余特征修剪”,“volume”:“118”,“author”:“Ayinde”,“year”:“2019”,“journal-title“:“neural Netw”。“},{”key“:”10.1016\/j.future.2022.04.031_b12“,”article-title“:”学习有效神经网络的权值和连接“,”volume“:“28”,”author“:”Han“,”year“:”2015“,”journal-title”:“Adv.neural Inf.Process.Syst.”},“key”:“10.1016\/j.future.2022.0 4.031_b13”,“article-title”“:”深度学习中的预测参数“,”volume“”:“26”,“author”:“”Denil”,“年份”:“2013年”,“新闻标题”:“高级神经信息处理。系统。“},{”key“:”10.1016\/j.future.2022.04.031_b14“,”article-title“:”Binaryconnect:“在传播过程中训练具有二进制权重的深层神经网络“,”volume“:“28”,”author“:”Courbariaux“,”year“:”2015“,”journal-title”:“Adv.neural Inf.Process.Syst.”},“29”,“作者”:“胡巴拉”,“年份”:“2016年”,“新闻标题”:“高级神经信息处理。系统。“},{”key“:”10.1016\/j.future.2022.04.031_b16“,”series-title“:”高效convnet的修剪过滤器“,”author“:”Li“,”year“:”2016“}”,{“issue”:“10”,“key”:“10.1016\/j.forture.2022.04.031_b17”,“doi-asserted-by”:“crossref”,“first page”:”4730“,”doi“:”101109\/TNNLS.2017.2774288“,”article-title“:“”量化CNN:加速和压缩卷积网络的统一方法”,“卷”:“29”,“作者”:“成”,“年份”:“2017年”,“新闻标题”:“IEEE Trans。神经网络。学习。系统。“},{”key“:”10.1016\/j.future.2022.04.031_b18“,”series-title“:”机器学习国际会议“,”首页“:”2285“,”article-title“:“用散列技巧压缩神经网络”,”author“:”Chen“,”year“:”2015“}”,{卷:“31”,“作者”:“朱”,“年份”:“2018”,“新闻标题”:“高级神经信息处理”。系统。“},{”key“:”10.1016\/j.future.2022.04.031_b20“,”article-title“:”通过知识蒸馏学习有效的对象检测模型“,”volume“:“30”,”author“:”Chen“,”year“:”2017“,”journal-title”:“Adv.Neural Inf.Process.Syst.”},“{”密钥“:”101016\/j.furte.2022.04.0 31_b21“,”series-title“:“”修剪卷积神经网络进行资源效率推理”,“author”:“Molchanov”,“year”:“2016”},{“key”:“10.1016\/j.future.2022.04.031_b22”,“article-title”:“Dynamic network surgery for efficient dnns”,“volume”:”29“,“author”:“Guo”,“year”:”2016“,”journal-title“:”Adv.neural Inf.Process.Systseries-title“:”加速具有低阶扩展的卷积神经网络“,”author“:”Jaderberg“,”year“:”2014“},{“key”:“10.1016\/j.future.2022.04.031_b24”,“doi-asserted-by”:“crossref”,“first page”:”185“,”doi“:”10.1016\/j.neucom.200.02.035“,”article-title“:”稀疏低阶因式分解用于深度神经网络压缩“,”volume“:“398”,“author“:”Swaminathan“,”year“:”2020“,”journal-title“:”Neurocomputing“},{“key”:“10.1016\/j.future.2022.04.031_b25”,“article-title”:“最佳脑损伤”,“volume”:”2“,”author”:“LeCun”,“year”:“1989”,“journal-title”:“Adv.Neural Inf.Process.Syst.”},}“issue”:“1”,“key“:”10.1016\/j.future.2022.0 4.031_b26”,“首页”:“”1929年“,”文章标题“:”辍学:防止神经网络过度拟合的简单方法”,“数量”:“15”,“作者”:“斯利瓦斯塔瓦”,“年份”:“2014年”,“期刊标题”:“J.马赫。学习。Res.“},{”key“:”10.1016\/j.future.2022.04.031_b27“,”article-title“:”网络修剪的二阶导数:最优脑外科医生“,”volume“:“5”,“author”:“Hassibi”,“year”:“1992”,“journal-title”:“Adv.Neural Inf.Process.Syst.”},“key”:“10.1016\/j.future.2022.0 4.031_b28”,“doi-asserted-by”:“crossref”,”unstructured“:”S.Liu,Y.Lin,Z.Zhou,英国。Nan,H.Liu,J.Du,移动设备的按需深度模型压缩:一个使用驱动的模型选择框架,载于:第16届国际移动系统、应用和服务年会论文集,2018,第389\u2013400页修剪,还是不修剪:探索修剪对模型压缩的效果”,“作者”:“朱”,“年份”:“2017”},{“关键”:“10.1016\/j.future.2022.04.031_b30”,“doi-asserted-by”:“crossref”,“非结构化”:“Z.Liu,j.Li,Z.Shen,G.Huang,S.Yan,C。张,通过网络精简学习有效卷积网络,收录于:IEEE国际计算机视觉会议论文集,2017年,第2736\u20132744页article-title“:“浅层深层网络:基于特征表示的分层修剪”,“卷”:“41”,“作者”:“陈”,“年份”:“2018年”,“期刊标题”:“IEEE Trans。模式分析。机器。智力。“},{”key“:”10.1016\/j.future.2022.04.031_b32“,”series-title“:”深度压缩:用剪枝、训练量化和哈夫曼编码压缩深度神经网络“,”author“:”Han“,”year“:”2015“}”,{“key”:“10.1016//j.furture.2022.04.031_b33”,“series-tile”:“重新思考网络剪枝的价值”,“author”:“Liu”,“year”:“2018”},“issue”:“10”,“key“”:”10.1016\/j.future.2022.04.031_b34“,”doi-asserted-by“:”crossref“,”first page“:”2525“,”doi“:”10.1109\/TPAMI.2018.2858232“,“article-title”:“Thinet:Pruning cnn filters for a thiner net”,“volume”:“41”,“author”:“Luo”,“year”:“2018”,“journal-title“:”IEEE Trans。模式分析。机器。智力。“},{”key“:”10.1016\/j.future.2022.04.031_b35“,”doi-asserted-by“:”crossref“,”unstructured“:”Z.Huang,N.Wang,深度神经网络的数据驱动稀疏结构选择,in:《欧洲计算机视觉会议论文集》,ECCV,2018,pp.304\u2013320。“,”doi“:”101007\/978-3030-01270-0_19“}”,{“issue”:“2”,“key”:“”10.1016\/j.future.2022.04.031_b36“,”article-title“:“超参数优化随机搜索”,“volume”:“13”,“author”:“Bergstra”,“year”:“2012”,“journal-title”:“j.Mach”。学习。研究“},{“key”:“10.1016\/j.future.2022.04.031_b37”,“doi-asserted-by”:“crossref”,“unstructured”:“Y.He,j.Lin,Z.Liu,H.Wang,L.j.Li,S.Han,Amc:移动设备上模型压缩和加速的Automl,摘自:《欧洲计算机视觉会议论文集》,ECCV,2018,第784\u2013800页。”,“doi”:“101007\/978-3-30-01234-2_48”}key“:”10.1016\/j.future.2022.04.031_b38“,”doi-asserted-by“:”crossref“,”unstructured“:”Y.He,X.Zhang,j.Sun,《加速超深层神经网络的通道修剪》,收录于:IEEE国际计算机视觉会议论文集,2017年,第1389\u20131397页series-title“:“深度神经网络的无数据参数修剪”,“author”:“Srinivas”,“year”:“2015”},{“issue”:“1”,“key”:“10.1016\/j.future.2022.04.031_b40”,“doi-asserted-by”:“crossref”,“first-page”:“43”,“doi”:“101023\/A:1009639214138”,“article-title”:“一种简单的神经网络修剪算法及其在滤波器合成中的应用”,“volume”:13“,“作者”:“铃木”,“年份”:“2001”,“新闻标题”:“神经过程”。莱特。“},{”key“:”10.1016\/j.future.2022.04.031_b41“,”series-title“:”稀疏连接神经网络:实现深度神经网络的高效vlsi“,”author“:”Ardakani“,”year“:”2016“}”,{“key”:“10.1016\/j.forture.2022.0 4.031_bs2”,“series-ttle”:“探索递归神经网络中的稀疏性”,“author”:“Narang”,“year”:“2017”},”{“密钥”:“”10.1016\/j.future.2022.04.031_b43“,”article-title“:”Runtime neural prunning“,”volume“:”30“,”author“:”Lin“,”year“:”2017“,”journal-title”:“Adv.neural Inf.Process。系统。“},{”issue“:”3“,”key“:”10.1016\/j.future.2022.04.031_b44“,”doi-asserted-by“:”crossref“,”first page“:“568”,“doi”:“10.1109\/TPAMI.2018.2886192”,“article-title”:“通过并行剪枝量化进行深度神经网络压缩”,“volume”:“42”,“author”:“Tung”,“year”:“2018”,“journal-title“:”IEEE Trans.Pattern Anal.Mach.Intell.“},{“键”:“10.1016\/j.future.2022.04.031_b45“,“series-title”:“彩票假设:发现稀疏可训练的神经网络”,“author”:“Frankle”,“year”:“2018”},{“key”:“10.1016\/j.forture.2022.04.031_b46”,“doi-asserted-by”:“crossref”,“doi”:“101016\/j.knosyss.2020.106622”,“article-title”:”AutoML:最新技术的调查“,”卷“212”作者:“他”,“年份”:“2021年”,“新闻标题”:“知道”-基于系统。“},{”key“:”10.1016\/j.future.202.04.031_b47“,”series title“:”自动化机器学习:方法、系统、挑战“,”首页“:”219“,”作者“:”Hutter“,”年份“:”2019“},{”key“:”10.1016\/j.future.202.04.031_b48“,”series title“:”深入研究神经网络压缩的结构化修剪“,”作者“:”Crowley“,”年份“:”2018“},{”key“:”10.1016\/j.future.2022.04.031_b49“,“series-title”:“人工神经网络国际会议”,“首页”:“92”,“article-title”:“调整深度神经网络\u2019s超参数限制在微型系统上的可部署性”,“author”:“Perego”,“year”:“2020”},{“issue”:“7”,“key”:”10.1016\/j.future.2023.031_b50“,”doi-asserted-by“:”crossref“,”first page“:”5113“,”DOI“:”10.1007 \/s10462-020-09816-7“,”article-title“:”模型压缩和加速综合调查“,”volume“:“53”,”author“:”Choudhary“,“year”:“2020”,”journal-title”:“Artif。智力。Rev.“},{”issue“:”1“,”key“:”10.1016\/j.future.2022.04.031_b51“,”doi-asserted-by“:”crossref“,”first page“:“126”,”doi“:”101109\/MSP.2017.2765695“,”article-title“:”deep neural networks:The principles,progress,and challenges“,”volument:“35”,“author”:“Cheng”,“year”:“2018”,“journal-title”:“”IEEE信号处理。Mag.“},{”issue“:”1“,”key“:”10.1016\/j.future.2022.04.031_b52“,”doi-asserted-by“:”crossref“,”first-page:“64”,“doi”:“10.1631\/FITEE.1700789”,“article-title”:“深度卷积神经网络有效计算的最新进展”,“volume”:“19”,“author”:“Cheng”,“year”:“2018”,“journal-title“:”Front.Inf.Technol.Electron.Eng.“”},”{“key“:”10.1016\/j.future.202.04.031_b53”,“首页”:“937”,“文章标题”:“具有不等式约束的贝叶斯优化”,“卷”:“2014卷”,“作者”:“Gardner”,“年”:“2014”},{“键”:“10.1016\/j.future.202.04.031_b54”,“系列标题”:“贝叶斯优化与数据科学”,“作者”:“Archetti”,“年”:“2019”},{“键”:“10.1016\/j.future.2022.04.031_b55“,“series-title”:“当代问题优化和建模的最新进展”,“首页”:“255”,“文章-标题”:“贝叶斯优化”,“作者”:“I”,“年份”:“2018”},{“问题”:“117\u2013129”,”key“:”10.1016\/j.future.2023.031_b56“,”首页“:”2“,”文章-标题“:”贝叶斯方法在求极值中的应用”,“卷”:“2”,“作者”:“Mockus”,“年份”:“1978年”,“新闻标题”:“走向全球”。最佳方案。“},{”key“:”10.1016\/j.future.2022.04.031_b57“,”article-title“:”机器学习算法的实用贝叶斯优化“,”volume“:“25”,“author”:“Snoek”,“year”:“2012”,“journal-title”:“Adv.Neural Inf.Process.Syst.”},“key”:“10.1016\/j.future.2022.0 4.031_bb8”,“series-title”:”机械学习暑期班“,”首页“:”63“,”article-title“:“机器学习中的高斯过程”,“author”:“Rasmussen”,“year”:“2003”},{“key”:“10.1016\/j.future.2022.04.031_b59”,“series-title”:“Surrogates:Gaussian Process Modeling,Design,and Optimization for the Applied Sciences”,“作者”:“B.”,“年份”:“2020”}昂贵成本函数的贝叶斯优化教程,应用于主动用户建模和分层强化学习”,“author”:“Brochu”,“year”:“2010”},{“issue”:“1”,“key”:“10.1016\/j.future.2022.04.031_b61”,“doi-asserted-by”:“crossref”,“first-pages”:“148”,”doi“10.1109\/JPROC.2015.2494218”,“article-title”:“让人类脱离循环:贝叶斯优化综述”,“卷”:“104”,“作者”:“Shahraria”,“年份”:“2015年”,“新闻标题”:“Proc。IEEE“},{”key“:”10.1016\/j.future.2022.04.031_b62“,”series-title“:”在噪声存在下定位任意多峰曲线最大点的新方法“,”author“:”j.“,”year“:”1964“}”,{“key”:“10.1016\/j.forture.2022.0 4.031_563”,“series-ttle”:“1992 IEEE系统、人和控制论国际会议论文集”,“首页“:”1241“,”article-title“:“一种全局优化的统计方法”,“author”:“Cox”,“year”:“1992”},{“key”:“10.1016\/j.future.2022.04.031_b64”,“series-title”:“pytorch中的自动微分”,“author”:“Paszke”,“year”:”2017“},“key“10.1016 \/j.future.2022.04.031 _b65”,“doi-asserted-by”:“crossref”,“unstructured”:“K.He,X.Zhang、S。Ren,J.Sun,《深入研究整流器:在图像网络分类方面超越人类水平的性能》,载于:IEEE国际计算机视觉会议论文集,2015年,第1026\u20131034页。“,”DOI“:”10.1109\/ICCV.2015.123“},{“key”:“10.1016\/J.future.2022.04.031_b66”,“series-title”:“从微小图像中学习多层特征”,“author”:“Krizhevsky”,“year”:“2009”},{“key”:“10.1016\/j.future.2022.04.031_b67”,“series-title”:“机器学习国际会议”,“首页”:“448”,“article-title”:年份:“2015”},{“key”:“10.1016\/j.future.2022.04.031_b68”,“doi-asserted-by”:“crossref”,“unstructured”:“C.Zhao,B.Ni,j.Zhang,Q.Zhao、W.Zhang、Q.Tian,变分卷积神经网络修剪,收录于:IEEE计算机视觉与模式识别会议论文集,2019年,第2780\u20132789页。”,“doi”:“10.1109\/CVPR.2019.00289“},{“key”:“10.1016\/j.future.2022.04.031_b69”,“series-title”:“2018 IEEE计算机视觉应用冬季会议,WACV”,“首页”:“709”,“article-title”:”学习修剪卷积神经网络中的滤波器“,”作者“:”黄“,”年份“2018”},“key“:”10.1016\/j.future.2022.0 4.031_b70“,”首页“:”1“,”article-title“:“基于启发式的深层神经网络自动剪枝”,“author”:“Choudhary”,“year”:“2022”,“journal-title”:“neural Compute”。申请。“},{”key“:”10.1016\/j.future.2022.04.031_b71“,”doi-asserted-by“:”crossref“,”unstructured“:”Y.Zhou,Y.Zhang,Y.Wang,Q.Tian,《通过递归贝叶斯修剪加速cnn》,收录于:IEEE\/CVF国际计算机视觉会议论文集,2019年,第3306\u20133315页。“,”doi“:”101109\/ICCV.2019.00340“}”,{“key”:“”10.1016\/j.future.2022.04.031_b72“,“doi-asserted-by”:“crossref”,“unstructured”:“R.Yu,A.Li,C.F.Chen,j.H.Lai,V.I.Morariu,X.Han,et al.Nisp:使用神经元重要性得分传播修剪网络,摘自:IEEE计算机视觉和模式识别会议论文集,2018,pp.9194\u20139203。”,“doi”:“10.1109\/CVPR.2018.00958“},{“键”:“10.1016\/j.future.202.04.031_b73”,“系列标题”:“2014 IEEE国际固态电路会议技术论文摘要,ISSCC”,“首页”:“10”,“文章标题”:“1.1计算\u2019能源问题(以及我们能做些什么)”,“作者”:“Horowitz”,“年份”:“2014”}],“容器标题”:[”Future Generation Computer Systems“],”original-title“:[],”language“:”en“,”link“:[{”URL“:”https:\/\/api.elsevier.com\/content\/article\/PII:S0167739X22001601?httpAccept=text\/xml“,”content-type“:”text\/xml“,”content-version“:”vor“,”intended-application“:”text-mining“},”{“URL”:“https:\//api.elsevier.com/content\/artracle\/PI:S0 167739X22001601?httpAccept=text\/plain“,”content-type“:”text\/prain“,“content-version”:“vor”,“intended-application”:“text-mining”}],“deposed”:{“date-parts”:[[2023,2,25]],“date-time”:“2023-02-25T02:18:56Z”,“timestamp”:1677291536000},“score”:1,“resource”:{“primary”:“URL”:“https:\/\/linkinghub.elsevier.com//retrieve\/pii\/S0167739 X22001601“}},”副标题“:[],”shorttitle“:[],”issued“:{”date-parts“:[2022,10]]},”references-count“:73,”alternative-id“:[”S0167739X22001601“],”URL“:”http://\/dx.doi.org\/10.1016\/j.future.2022.04.031“,”relation“:{},“ISSN”:[”0167-739X“],“ISSN-type”:[{“value”:“0167-739 X”,“type”:“print”}],“subject”:[],“published”:{“date-parts”:[2022,10]]},“assertion”:[{“value”:“Elsevier”,“name“:”publisher“,”label“:”本文由“}维护,{“value”:“推理感知卷积神经网络修剪”,“name”:“articletite”,“label”:“article Title”},{”value“:”Future Generation Computer Systems“,”name“:“journaltitle”,“标签”:“Journal Title“},”{“值”:“https:\/\/doi.org\/101016\/j.Future.2022.04.031”,“name”:“rticlelink”,“label“:”CrossRef DOI link to publisher maintained version“},{“value”:“article”,“name”:“content_type”,“label”:“content-type”},}“value”:“\u00a9 2022 Elsevier B.V.保留所有权利。”,“名称”:“版权”,“标签”:“copyright”}]}}