{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部件”:[[2024,7,25]],“日期-时间”:“2024-07-25T11:12:06Z”,“时间戳”:1721905926457},“引用-计数”:49,“发布者”:“计算机协会(ACM)”,“问题”:“4”,“许可证”:[{“开始”:{-“日期-零件”:[2019,10,11]],”日期-时间我“:“2019-10-11T00:00:00Z”,“timestamp”:1570752000000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“http://www.acm.org\/publications\/policys\/corpyright_policy#Background”}],“content-domain”:{“domain”:[“dl.acm.org”],“crossmark-restriction”:true},”short-container-title“:[”acm Trans.Archit.Code Optim.“],”published-print“:{”date-parts“:[2019,12,]31]]},“摘要”:“\n神经网络具有广泛的工业和商业意义。二进制神经网络(BNN)在权衡性能、能源效率或硬件/软件复杂性的准确性方面尤其有效。在这里,我们介绍一种自旋电子、可重新配置的内存BNN加速器PIMBALL:\nP正在处理\n我<\/jats:bold>\n\nM<\/jats:bold>\n内存\nB<\/jats:bold>\n NN \nA<\/jats:bold>\n抄送\nL(L)<\/jats:bold>\n运算符,允许大规模并行和节能计算。PIMBALL能够同时用作标准自旋电子存储器(STT-MRAM)阵列和计算基板。我们使用多个图像分类器和基因组学内核评估PIMBALL。我们的仿真结果表明,PIMBALL比基于CPU、GPU和FPGA的替代实现更节能,同时提供更高的吞吐量。\n<\/jats:p>“,”DOI“:”10.1145\/3357250“,”type“:”journal-article“,”created“:{”date-parts“:[[2019,10,11]],”date-time“:”2019-10-11T14:53:33Z“,”timestamp“:1570805613000},”page“:“1-26”,“update-policy”:“http://\/dx.DOI.org\/10.1145\/crossmark-policy”,“source”:”Crossref“,”is-referenced-by-count“:25,“标题”:[“PIMBALL”],“前缀”:“10.1145”,“volume“:”16“,”author“:[{”given“:“Salonik”,”family“:”Resch“,”sequence“:”first“,”affiliation“:[}”name“:”明尼苏达州明尼阿波利斯市双子城明尼阿波罗斯大学“}]},{”Givent“:”S.Karen“,”faily“:“Khatamifard”,“sequence”:“additional”,“affiliation:[{“name”:“明尼苏达大学双子城明尼阿波利斯分校”}]},{“ORCID”:“http:\/\/orcid.org\/00000-0002-4096-7000“,”authenticated-orcid“:false,”given“:”Zamshed Iqbal“,”family“:”Chowdhury“,”sequence“:”additional“,”affiliation“:[{”name“:”明尼苏达州明尼阿波利斯双城明尼苏德大学“}]},{”givent“:”Masoud“,”家人“:”Zabihi“,”sequence“:”additionable“,”从属关系“:[}”明尼苏达大学双子城分校“}]},{“given”:“Zhengyang”,“family”:“赵”,“sequence”:“additional”,“affiliation”:[{“name”:“University of Minnesota,Twin Cities,Minneapolis,Minneopolis”}]},}“giving”:“Jian-Ping”,“家庭”:“Wang”,“sequence”:“additionable”,“feliation”:[{”name“:”明尼苏达州明尼阿波利斯市双子城明尼苏打大学“}]},{“given”:“Sachin S.”,“family”:“Sapatnekar”,“sequence”:“additional”,“affiliation”:[{“name”:“明尼苏阿波利斯市明尼苏达州立大学双子城分校”}]},}“giving”:“Ulya R.”,”family“:”Karpuscu“,”sequence“:”additional“,“afliation”明尼苏达州明尼阿波利斯市双子城明尼苏打大学“}]}],“成员”:“320”,“在线发布”:{“date-parts”:[[2019,10,11]]},“引用”:[{“键”:“e_1_2_1_1”,“非结构化”:“[n.d.]。Micron TN-41-01:计算DDR3的内存系统功率。检索自:https:\/\/www.micron.com/-\/media\/client\/global\/documents\/products\/technical-note\/dram\/tn41_01ddr3_power.pdf。【未注明日期】。Micron TN-41-01:计算DDR3的内存系统功率。检索自:https://www.micron.com\/-\/media\/client\/global\/documents\/products\/technology note\/dram\/tn41_01ddr3_power.pdf。“},{”key“:”e_1_1_2_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1145\/3287624.3287644“}“key”:“e_2_1_3_1”,”doiasserted-by”:“publisher”,“doi”:“10.1109\/ASPDAC.2018.8297291”},}“密钥”:“e_1_2_4_1”、“卷时间”:“国际机器学习会议论文集.2285--2294”,“作者”:“陈文林”,“年份”:“2015年”,“非结构化”:“陈文林(Wenlin Chen)、詹姆斯·威尔逊(James Wilson)、斯蒂芬·泰利(Stephen Tyree)、基里安·温伯格(Kilian Weinberger)和陈一新(Yixin Chen)。2015 . 使用哈希技巧压缩神经网络。《国际机器学习会议论文集》。2285--2294 . 陈文林(Wenlin Chen)、詹姆斯·威尔逊(James Wilson)、斯蒂芬·泰利(Stephen Tyree)、基里安·温伯格(Kilian Weinberger)和陈一新(Yixin Chen)。2015.使用哈希技巧压缩神经网络。机器学习国际会议论文集。2285-2294.“},{“key”:“e_1_2_1_5_1”,“volume-title”:“第47届IEEE\/ACM微体系结构国际研讨会论文集。IEEE计算机学会,609--622”,“作者”:“陈云基”,“非结构化”:“陈云基,罗涛,刘少丽,张世进,何立强,王佳,李玲,陈天石,徐志伟,孙宁辉等人,2014。Dadiannao:一台机器学习的超级计算机。第47届IEEE\/ACM国际微体系结构研讨会论文集。IEEE计算机协会,609-622。陈云吉、罗涛、刘少丽、张世进、何丽强、王佳、李凌、陈天石、徐志伟、孙宁辉等,2014年。Dadiannao:一台机器学习的超级计算机。第47届IEEE\/ACM国际微体系结构研讨会论文集。IEEE Computer Society,609--622.“},{”key“:”e_1_2_1_6_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/JSSC.2016.2616357”},“key”:“e_1_cu1_7_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/LCA.2017.2751042 TCAD.2018.2857019“},{“key”:“e_1_2_1_9_1”,“volume-title”:“二值化神经网络:训练深度神经网络,权重和激活限制为+1或-1。检索自:arXiv预印本arXiv:1602.02830“,”author“:”Courbariaux Matthieu“,”year“:”2016“,”unstructured“:”Matthieu-Courbariaux、Itay Hubara、Daniel Soudry、Ran El-Yaniv和Yoshua Bengio“。2016.二值化神经网络:训练深度神经网络,权重和激活限制为+1或-1。检索自:arXiv预印本arXiv:1602.02830(2016)。马蒂厄·库巴里奥(Matthieu Courbariaux)、伊泰·胡巴拉(Itay Hubara)、丹尼尔·苏德利(Daniel Soudry)、兰·埃尔·亚尼夫(Ran El-Yaniv)和约舒亚·本吉奥(Yoshua Bengio)。2016.二值化神经网络:训练深度神经网络,权重和激活限制为+1或-1。检索自:arXiv预印本arXiv:1602.02830(2016)。“},{”key“:”e_1_1_10_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1063\/1.2717556”},“key”:“e_1_i_11_11_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/1391469.1391610“}”,{键“:”e_1_2_1_13_1“,”卷时间“:”神经缓存:深度神经网络的位序列缓存内加速。检索自:arXiv预印本arXiv:1805.03718“,”author“:”Eckert Charles“,”year“:”2018“,”unstructured“:”Charles Eckert、Xiaowei Wang、Jingcheng Wang、Arun Subramaniyan、Ravi Iyer、Dennis Sylvester、David Blaauw和Reetuparna Das。2018.神经缓存:深度神经网络的位序列缓存内加速。检索自:arXiv预印本arXiv:1805.03718(2018)。查尔斯·埃克特(Charles Eckert)、王晓伟(Xiaowei Wang)、王京成(Jingcheng Wang),阿伦·苏布拉曼尼扬(Arun Subramaniyan)、拉维·伊耶(Ravi Iyer)、丹尼斯·西尔维斯特(Dennis Sylvester)、大卫·布劳(David Blaauw)和瑞图巴娜·达斯(Reetuparna Das)。2018.神经缓存:深度神经网络的位序列缓存内加速。检索自:arXiv预印本arXiv:1805.03718(2018)。“},{”key“:”e_1_1_14_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/HPCA.2018.00015”},“{”key“:“e_2_1_15_1”,“volume-title”:“在FPGA上实现快速高效的二值化神经网络推理。检索自:arXiv预印本arXiv:1810.02068”,“author”:“Fu Cheng”,“year”:“2018”,“unstructured”:“”程复、朱士林、郝苏、李清恩和赵继深。2018.在FPGA上实现快速高效的二值化神经网络推理。检索自:arXiv预印本arXiv:1810.02068(2018)。程复、朱士林、郝苏、李清恩和赵继深。2018.在FPGA上实现快速高效的二值化神经网络推理。检索自:arXiv预印本arXiv:11810.02068(2018)。“},{”key“:”e_1_1_16_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3093337.3037702”},“key”:“e_1_cu1_17_1”,“volume-title”:“机器学习国际会议论文集.1737--1746”,“author”:“Gupta Suyog”,“year”:“2015”,“unstructured”:“Suyog Gupta、Ankur Agrawal、Kailash Gopalakrishnan和Pritish Narayanan。2015 . 深度学习,数值精度有限。《国际机器学习会议论文集》。1737--1746 . Suyog Gupta、Ankur Agrawal、Kailash Gopalakrishnan和Pritish Narayanan。2015年,深度学习,数值精度有限。机器学习国际会议论文集。1737--1746.“},{”key“:”e_1_2_1_18_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3240765.3240811”},“key”:“e_1_cu1_19_1”,“volume-title”:“ACM\/IEEE第43届计算机体系结构国际研讨会论文集(ISCA\u201916)”,“author”:“Han Song”,“unstructured”:“Song Han,Xingyu Liu,Huizi Mao,Jing Pu,Ardavan Pedram,Mark A。霍洛维茨和威廉·戴利。2016.EIE:基于压缩深度神经网络的高效推理引擎。在ACM\/IEEE第43届计算机体系结构国际研讨会论文集(ISCA\u201916)上。IEEE,243--254。宋汉、刘星宇、毛慧子、蒲靖、佩德拉姆、马克·霍洛维茨和威廉·戴利。2016年,EIE:基于压缩深度神经网络的高效推理引擎。在ACM \/IEEE第43届计算机体系结构国际研讨会论文集(ISCA \u201916)上。IEEE,243--254.“},{“key”:“e_1_2_1_20_1”,“volume-title”:“Dally”,“author”:“Han Song”,“year”:“2015”,“unstructured”:“Song Han,Huizi Mao,and William J.Dally。2015。深度压缩:使用剪枝、训练量化和Huffman编码压缩深度神经网络。检索自:arXiv预印本arXiv:1510.00149(2015)宋汉、毛慧子和威廉·戴利。2015.深度压缩:使用修剪、训练量化和哈夫曼编码压缩深度神经网络。检索自:arXiv预印本arXiv:1510.00149(2015)。“},{”key“:”e_1_2_1_21_1“,”volume-title“:”神经信息处理系统进展会议论文集1135--1143“,”author“:”Han Song“,”year“:”2015“,”unstructured“:”宋汉、杰夫·普尔、约翰·Tran和威廉·戴利。2015 . 学习有效神经网络的权值和连接。神经信息处理系统进展会议论文集。1135--1143 . 宋汉、杰夫·普尔、约翰·Tran和威廉·戴利。2015年,学习有效神经网络的权重和连接。《神经信息处理系统进展会议论文集》。1135--1143.“},{”key“:”e_1_2_1_22_1“,”volume-title“:”IEEE国际电子器件会议(IEDM\u201915)“,”author“:”Hu G.“,“非结构化”:”G.Hu,J.H.Lee,J.J.Nowak,J.Z.Sun,J.Harms,A.Annunziata,S.Brown,W.Chen,Y.H.Kim,G.Lauer等人,2015。双磁隧道结STT-MRAM。IEEE国际电子器件会议记录(IEDM\u201915)。IEEE,第26--3页。G.Hu、J.H.Lee、J.J.Nowak、J.Z.Sun、J.Harms、A.Annunziata、S.Brown、W.Chen、Y.H.Kim、G.Lauer等人,2015年。双磁隧道结STT-MRAM。IEEE国际电子器件会议记录(IEDM\u201915)。IEEE,26-3.“},{”key“:”e_1_2_1_23_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3007787.3001178”},“key”:“e_2_2_24_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/HPCA.2019.00017“}”,{51“},{”键“:”e_1_1_26_1“,”卷时间“:”第26届现场可编程逻辑与应用国际会议论文集(FPL\u201916)”,“作者”:“李惠民”,“年份”:“2016年”,“非结构化”:“李惠民、樊锡田、李焦、曹伟、周学功、王凌丽。2016 . 用于大规模卷积神经网络的基于FPGA的高性能加速器。第26届现场可编程逻辑与应用国际会议论文集(FPL\u201916)。IEEE,1-9。李惠民、范锡田、李娇、曹伟、周学功和王凌丽。2016年,基于FPGA的大规模卷积神经网络高性能加速器。第26届现场可编程逻辑与应用国际会议论文集(FPL\u201916)。IEEE,1-9.“},{“key”:“e_1_2_1_27_1”,“doi由”:“publisher”断言,“doi”:“10.1145\/2897937.2898064”},{“key”:“e_1_2_1_28_1”,“doi由”:“publisher”断言,“doi”:“10.1016\/j.neucom.2017.09.046”},{“key”:“e_1_2_1_29_1”,“doi由”:“publisher”断言,“doi”:“10.1109\/MIE.2016.26155575”},{“key”:“e_1_2_1_30_1”,“首页”:“D306”,“文章标题”:“Co2FeAl-Heusler合金薄膜的低阻尼常数及其与状态密度的关系”,“体积”:“105”,“作者”:“Mizukami S.”,“年份”:“2009”,“非结构化”:“S.Mizukamai,D.Watanabe,M.Oogane,Y.Ando,Y.Miura,M.Shirai,和T.Miyazaki。2009 . Co2FeAl-Heusler合金薄膜的低阻尼常数及其与态密度的关系。J.应用。物理学。105,7(2009),07 D306。DOI:https:\/\/DOI.org\/10.1063\/1.3067607 arXiv:https:\/\/dio.org\/101063\/1.306 7607 10.1063\/1.3 067607 S.Mizukami、D.Watanabe、M.Oogane、Y.Ando、Y.Miura、M.Shirai和T.Miyazaki。Co2FeAl-Heusler合金薄膜的低阻尼常数及其与状态密度的关系。J.应用。物理学。105,7(2009),07D306。DOI:https:\/\/DOI.org\/10.1063\/1.3067607 arXiv:https:\/\/DOI.org\/10.1063“,”journal-title“:”J.Appli。物理学。“},{”key“:”e_1_1_31_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/FPT.2016.7929192”},“{”key“:“e_2_1_32_1”,“doi-assert-by”:“crossref”,”first-page:“1”,“doi:”10.1109\/TMAG.2018.284625“,”article-title“:”一种基于STT-MRAM的二元卷积神经网络多级单元计算内存加速器“,”volume“:”99“,”author“:“潘瑜”,“年份”:“2018年”,“非结构化”:“于攀、彭欧阳、赵英林、王康、尹守义、张有光、赵卫生、魏少军。2018 . 基于多级单元STT-MRAM的二进制卷积神经网络计算内存加速器。IEEE传输。Mag.99(2018),1-5。于攀、彭欧阳、赵英林、王康、尹守义、张有光、赵伟生和魏少军。2018年,基于多级单元STT-MRAM的二进制卷积神经网络计算内存加速器。IEEE Trans。Mag.99(2018),1-5.“,“期刊标题”:“IEEE Trans。Mag.“},{“key”:“e_1_2_1_33_1”,“volume-title”:“ACM\/SIGDA现场可编程门阵列国际研讨会论文集。ACM,26-35”,“作者”:“邱建涛”,“非结构化”:“裘建涛,王杰,宋耀,郭开元,李伯顺,周二进,余锦成,唐天启,徐宁义,宋森等人,2016。深入研究卷积神经网络的嵌入式FPGA平台。ACM SIGDA现场可编程门阵列国际研讨会论文集。美国医学会,26-35。邱建涛、王杰、姚松、郭开元、李伯顺、周二进、余锦成、唐天奇、徐宁义、宋森等,2016年。深入研究卷积神经网络的嵌入式FPGA平台。ACM SIGDA现场可编程门阵列国际研讨会论文集。ACM,26--35.“},{”key“:”e_1_1_34_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1007\/978-3-319-46493-0_32”},},“key”:“e_2_1_35_1”,“volume-title”:“IEEE VLSI技术研讨会论文集。IEEE,1-2.”,“author”:“Saida Daisuke”,“unstructured”:“2016年,大冢赛达、川田昭里、美谷雅彦、田道美大埔、长谷直树、福本美吉、Miji Miwa、铃木义史、野口广子、藤田信步等。亚3 ns脉冲,1x--2x nm垂直MTJ的亚100μA开关,用于高性能嵌入式STT-MRAM向亚20 nm CMOS的转换。IEEE超大规模集成电路技术研讨会论文集。IEEE,1-2。2016年,大冢赛达、川田昭里、美谷雅彦、大岛美大宝、长谷直树、福本美吉、Miji Miwa、铃木义史、野口广子、藤田信步等。亚3 ns脉冲,1x--2x nm垂直MTJ的亚100μA开关,用于高性能嵌入式STT-MRAM向亚20 nm CMOS的转换。IEEE超大规模集成电路技术研讨会论文集。IEEE,1--2.“},{”key“:”e_1_2_1_36_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1063\/1.4892924”},“key”:“e_1_i_1_37_1”,“volume-title”:“第50届IEEE\/ACM微体系结构国际研讨会论文集。ACM,273--287”,“作者”:“Seshadri Vivek”,“非结构化”:“维维克·塞沙德里(Vivek Seshadri)、东赫·李(Donghyuk Lee)、托马斯·马林斯(Thomas Mullins)、哈桑·哈桑(Hasan Hassan)、阿米拉利·博罗曼德(Amirali Boroumand)、杰里米·金(Jeremie Kim)、迈克尔·科祖奇(Michael A.Kozuch)、。2017.环境:内存加速器,用于使用商品DRAM技术进行批量位操作。在第50届IEEE/ACM微体系结构国际研讨会论文集上。美国医学会,273--287。维维克·塞沙德里(Vivek Seshadri)、东赫·李(Donghyuk Lee)、托马斯·马林斯(Thomas Mullins)、哈桑·哈桑(Hasan Hassan)、阿米拉利·博罗曼德(Amirali Boroumand)、杰里米·金(Jeremie Kim)、迈克尔·科祖奇(Michael A.Kozuch)、。2017.环境:内存加速器,用于使用商品DRAM技术进行批量位操作。在第50届IEEE/ACM微体系结构国际研讨会论文集上。ACM,273--287.“},{”key“:”e_1_2_1_38_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/284263.2847276”},“key”:“e_1_i_1_39_1”,“doi-assert-by”:“publisher”,”doi“:”10.5555\/3201607.3201741“}、{”密钥“:”e_1_1_40_1“、”doi-sserted-by”“:”publisher“,”doi:“10.1109\/ASPDAC.2017.7858419“},{”key“:”e_1_2_1_41_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3020078.3021744“},{“key”:“e_1_2_1_42_1”,“doi-asserted-by”:“publisher”,”doi“:“10.1145\/289797.2898101”},“key“:”e_1_i_1_43_1“,”doi-assert-by“:”publisher“,“doi”:“10.1109\/JPROC.2018.2790840”}、{“密钥”:“e_1_2_1_44_1”、“doi-sserted-by“”:”publicher“,“doi”:”10.1109\/IEDM.2016.7838429“},{“key”:“e_1_2_1_45_1”,“volume-title”:“自旋电子学CRAM的内存处理:从硬件设计到应用映射”,“作者”:“Zabihi Masoud”,“年份”:“2018年”,“非结构化”:“Masoud Zabihi,Zamshed Chowdhury,Zhengyang Zhao,Ulya R.Karpuscu,Jian-Ping Wang,Sachin Sapatnekar。2018.自旋电子学CRAM内存处理:从硬件设计到应用映射。IEEE传输。计算。( 2018 ). Masoud Zabihi、Zamshed Chowdhury、Zhengyang Zhao、Ulya R.Karpuscu、Jian-Ping Wang和Sachin Sapatnekar。2018.自旋电子CRAM的内存处理:从硬件设计到应用程序映射。IEEE传输。计算。(2018).“},{”key“:”e_1_1_46_1“,”volume-title“:”第20届国际质量电子设计研讨会论文集(ISQED\u201919)“,”author“:”Zabihi Masoud“,”unstructured“:”Masoud Zabih,Zhengyang Zhao,D.C.Mahendra,Zamshed I.Chowdhury,Salonik Resch,Thomas Peterson,Ulya R.Karpuscu,Jian-Ping Wang,and Sachin S。萨帕特内卡尔。2019.使用spin-Hall MTJ构建节能内存计算平台。第20届质量电子设计国际研讨会论文集(ISQED\u201919)。IEEE,52-57。Masoud Zabihi、Zhengyang Zhao、D.C.Mahendra、Zamshed I.Chowdhury、Salonik Resch、Thomas Peterson、Ulya R.Karpuscu、Jian-Ping Wang和Sachin S.Sapatnekar。2019.使用spin-Hall MTJ构建节能内存计算平台。第20届质量电子设计国际研讨会论文集(ISQED\u201919)。IEEE,52-57.“},{”键“:”e_1_2_1_47_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/2684746.2689060”},“键”:“e_1_i_1_48_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3020078.3021741“}DoReFa-Net:训练具有低比特宽度梯度的低比特宽度卷积神经网络。检索自:arXiv预印本arXiv:1606.06160“,“作者”:“周树昌”,“年份”:“2016”,“非结构化”:“周树昌,吴宇新,倪泽坤,周新余,何文,邹玉恒。2016年,DoReFa-Net:训练具有低比特宽度梯度的低比特宽度卷积神经网络。检索自:arXiv预印本arXiv:1606.06160(2016)。周树昌、吴玉欣、倪泽坤、周新余、何文和邹玉恒。2016年,DoReFa-Net:训练具有低比特宽度梯度的低比特宽度卷积神经网络。检索自:arXiv预印本arXiv:1606.06160(2016)。“}],”container-title“:[”ACM Transactions on Architecture and Code Optimization“],”original-title”:[],”language“:”en“,”link“:[{”URL“:”https:\/\/dl.ACM.org\/doi\/pdf\/10.1145\/3357250“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}”,”deposed“:{”date-parts“:[2023,1]],”date-time“:“”2023-01-01T07:24:39Z“,”timestamp“:1672557879000},”score“:1,”resource“:{”primary”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3357250”}},“subtitle”:[“Spintronic Memory中的二进制神经网络”],“short title”:[],“issued”:{“date-parts”:[2019,10,11]]},‘references-count’:49,‘journal-issue’:{‘issue’:“4”,“published-print“:{“日期部分”:[[2019,12,31]]}},“alternative-id”:[“10.1145\/3357250”],“URL”:“http://\/dx.doi.org\/10.1145\/335720”,“关系”:{},“ISSN”:[”1544-3566“,”1544-3973“],“ISSN-type”:[{“value”:“1544-3556”,“type”:“print”},{“value”:“544-3973”,“类型”:“electronic”}],“主题”:[],“发布”:{“日期部分”:[[2019,10,11]]},“断言”:[{“value”:“2019-03-01”,“order”:0,“name”:“received”,“label”:“Received”,“group”:{“name”:“publication_history”,“lable”:“publication history”}},{“value”:“2019-08-01”,“order”:1,“name”:“accepted”,”label“:“accepted“,”group“:{”name“:”publication_history“,”label:“publication history历史”,“标签”:“出版物历史记录”}}]}}