{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部分”:[[2024,7,15]],“日期-时间”:“2024-07-15T13:19:33Z”,“时间戳”:17210495734},“引用-计数”:83,“发布者”:“计算机械协会(ACM)”,“问题”:“10”,“内容-域”:{“域”:[],“交叉标记限制”:false},”short集装箱装载机”:[“Proc.VLDB Endow.”],“published-print”:{“date-parts”:[[2022,6]]},“abstract”:“从关系数据库中为深度学习模型提供服务带来了显著的好处。首先,从数据库中提取的特征不需要传输到任何解耦的深度学习系统中进行推理,因此可以显著降低系统管理开销。其次,在关系数据库中,存储层次结构上的数据管理与查询处理完全集成,因此即使工作集大小超过可用内存,它也可以继续提供模型服务。应用模型重复数据消除可以大大减少存储空间、内存占用、缓存未命中和推断延迟。然而,现有的重复数据消除技术不适用于服务于关系数据库中应用程序的深度学习模型。他们没有考虑对模型推理准确性的影响以及张量块和数据库页面之间的不一致性。这项工作提出了用于重复检测、页面打包和缓存的协同存储优化技术,以增强模型服务的数据库系统。评估结果表明,我们提出的技术显著提高了存储效率和模型推理延迟,并在目标场景中优于现有的深度学习框架<\/jats:p>“,”DOI“:”10.14778\/3547305.3547325“,”type“:”journal-article“,”created“:{”date-parts“:[[2022,9,7]],”date-time“:”2022-09-07T16:09:53Z“,”timestamp“:1662566993000},”page“:“2230-2243”,“source”:“Crossref”,“is-referenced-by-count”:4,“title”:[“使用关系数据库中的重复数据消除服务于深度学习模型”],“前缀”:“10.14778“,”卷“:”15“,”作者“:[{”给定“:”李熙“,”家庭“:”周“,”序列“:”第一“,”从属关系“:[}给定“:“亚利桑那州立大学”}]},{”给出“:”嘉庆“,”家人“:”陈“,”顺序“:”附加“,”隶属关系“:[{”名称“:”亚利桑那州立大学“}]}.,{“给定”:“阿弥陀佛”,“家庭”:“达斯”,“序列”:“附加”,“从属关系”:[{'名称“:“亚利桑那州立学院”}]},{“given”:“Hong”,“family”:“Min”,“sequence”:“additional”,“affiliation”:[{“name”:“IBM T.J.Watson Research Center”}]},{“given”:“Lei”,“family”:“Yu”,“sequence”:“additional”,“affiliation”:[{“name”:“IBM T.J.Watson Research Center”}]},{“given”:“Ming”,“family”:“Zhao”,“sequence”:“additional”,“affiliation”:[{“name”:“Arizona State University”}]},{“given”:“Jia“,”family“:”Zou“,”sequence“:”additional“,”affiliation“:[{”name“:”Arizona State University“}]}],”member“:”320“,”published-on-line“:{”date-parts“:[[2022,9,7]]},”reference“:[}”key“:”e_1_1_1“,”unstructured“:”[n.d.]极端分类存储库:多标签数据集和代码。http://\/manikvarma.org\/downloads\/XC\/XMLRepository.html。【未注明日期】。极限分类库:多标签数据集和代码。http://\/manikvarma.org\/downloads\/XC\/XMLRepository.html。“},{”key“:”e_1_1_2_1“,”unstructured“:”[n.d.].NNLM128 Tensorflow Hub.\“https:\/\/tfhub.dev\/google\/nnlm-en-dim128\/2\”.[n.d].NNLM28 Tensorflow Hub.“https:\\/tfhub.dev\/google\nnlm-en-diam128\/2”.“}”,{“key”:“e_2_1_3_1”,”unsructured \/tfhub.dev\/google\/nnlm-en-dim50\/2\“.[n.d.].NNLM50 Tensorflow轮毂\“https:\/\/tfhub.dev\/google\/nnlm-en-dim50\/2\”。“},{”key“:”e_1_1_4_1“,”unstructured“:”[n.d.].shakespeare.txt.'https:\//storage.googleapis.com/download.tensorflow.org\/data\/shakepeare.txt'[n.d].shaespeare.txt“https:\/\/storage.googleapi.com\/download.tenserflow.org//data\/shaespeare.txt'“}”,{“key”:“e_2_1_5_1”,“unstructure”:“[n.d].Tensorflow轮毂\“https://www.tensorflow.org/hub\”。【未注明日期】。Tensorflow轮毂\“https:\/\/www.tensorflow.org\/hub\”。“},{”key“:”e_1_1_6_1“,”unstructured“:”[n.d.].TensorFlow Wikipedia Dataset.https:\/\/www.TensorFlow.org\/datasets\/catalog\/Wikipedia.[n.d].TentorFlow维基百科Dataset.htmps:\//www.tensofflow.org\/datasets/catalog\/wiki pedia.“}”,{“key”:“e_2_1_7_1”,“unstructure”:“[n.d]。亚马逊圣人的总拥有成本(tco)。([n.d.])https:\/\/pages.awscloud.com/NAMER-ln-GC-400-machine-learning-sagemaker-tco-learn-ty.html。【未注明日期】。亚马逊sagemaker的总拥有成本(tco)。([未注明日期])。https:\/\/pages.awscloud.com/NAMER-ln-GC-400-machine-learning-sagemaker-tco-learn-ty.html。“},{”key“:”e_1_1_8_1“,”unstructured“:”[n.d.].Web文本语料库。“https://www.kaggle.com//nltkdata//Web-Text-Corpus'[n.d].Web Text-Corpus.'https:\\/www.kaggel.com//nltkdata\/Web-Text-Corpus'}“key”:“e_2_1_9_1”,“unstructure”:“[n.d.].Wiki250 Tensorflow Hub.”https:\\//tfhub.dev//google\/Wiki-words-250\/2\“.[未注明日期].Wiki250 Tensorflow中心\“https:\/\/tfhub.dev\/google\/Wiki-words-250\/2\”。“},{”key“:”e_1_1_10_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1016\/B978-155860869-6\/50058-5”},“key”:“e_2_1_11_1”,“volume-title”:“神经概率语言模型。神经信息处理系统的进展13”,“author”:“Bengio Yoshua”,“year”:“2000”,“unstructured”:“Yoshua Bengio、R\u00e9jean Ducharme和Pascal Vincent。2000.神经概率语言模型。神经信息处理系统进展13(2000)。Yoshua Bengio、R\u00e9jean Ducharme和Pascal Vincent。2000.神经概率语言模型。神经信息处理系统进展13(2000)。“},{”key“:”e_1_1_12_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/MASCOT.2009.5366623”},“key”:“e_2_1_13_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/ICDM.2006.13“}”,{{“key”:“e_1_2_1_15_1”,“非结构化”:“丹尼尔·博坎·卢卡斯·迪克森·杰弗里·索伦森·尼图姆·塞恩和露西·瓦瑟曼。2019.民事评论数据集。https:\/\/www.kaggle.com/c\/jigsaw-unintended-bias-in-toxicity-classification\/data丹尼尔·博坎·卢卡斯·迪克森·杰弗里·索伦森·尼瑟姆·塞恩和露西·瓦瑟曼。2019.民事评论数据集。https:\/\/www.kaggle.com/c\/jigsaw-unintended-bias-in-toxicity-classification\/data“},{“key”:“e_1_2_1_16_1”,“volume-title”:“超大数据库的可扩展阻塞。在欧洲数据库机器学习和知识发现联合会议上。Springer,303--319”,“author”:“Borthwick Andrew”,“year”:“2020”,“unstructured”:“Andrew Borthwick、Stephen Ash、Bin Pang、Shehzad Qureshi和Timothy Jones。2020 . 超大数据库的可扩展阻塞。在数据库中的机器学习和知识发现欧洲联合会议上。施普林格,303--319。Andrew Borthwick、Stephen Ash、Bin Pang、Shehzad Qureshi和Timothy Jones。2020年。超大数据库的可扩展阻塞。在数据库中的机器学习和知识发现欧洲联合会议上。Springer,303--319.“},{”key“:”e_1_2_1_17_1“,”doi-asserted-by“:”publisher“,“doi”:“10.5555\/829502.830043”},“key”:“e_1_cu1_18_1”,“volume-title”:“欧盟立法上的大规模多标签文本分类。arXiv预印本arXiv:1906.02192”,“author”:“Chalkidis Ilias”,“年份”:“2019”,“非结构化”:“伊利亚斯·查尔基迪斯(Ilias Chalkidis)、马诺斯·费尔加迪奥提斯(Manos Fergadiotis)、马拉卡西奥提斯前驱龙(Prodromos Malakasiotis)和伊恩·安德洛索普洛斯(Ion Androutsopoulos)。2019.欧盟立法中的大规模多标签文本分类。arXiv预印本arXiv:1906.02192(2019)。伊利亚斯·查尔基迪斯(Ilias Chalkidis)、马诺斯·费尔加迪奥提斯(Manos Fergadiotis)、马拉卡西奥提斯前驱龙(Prodromos Malakasiotis)和伊恩·安德洛索普洛斯。2019.欧盟立法的大规模多标签文本分类。arXiv预印本arXiv:1906.02192(2019)。“},{”key“:”e_1_1_19_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/509907.509965”},“key”:“e_2_1_20_1”,“unstructured”:“Lin Chen Hossein Esfandiari Gang Fu and Vahab Mirrorkni.2019。f-发散的局部敏感散列:相互信息丢失及其以外。神经信息处理系统进展。10044--10054. 林振·侯赛因·埃斯凡迪亚里·冈福(Lin Chen Hossein Esfandiari Gang Fu)和瓦哈布·米罗尼(Vahab Mirrorkni)。2019.针对f-分歧的局部敏感哈希:相互信息损失及其后果。神经信息处理系统进展。10044--10054.“},{”key“:”e_1_2_1_21_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1007\/BF01840450”},“key”:“e_1_i_1_22_22_1”,“doi-assert-by”:“publisher”,”doi“:”10.14778\/2983200.2983203“}”,{)key:“e_i_1_23_1”、“volume-title”:“NIPS 2015机器学习系统研讨会(LearningSys)。”,“author”:“Crank Shaw Daniel”,“年份”:“2015年”,“非结构化”:“Daniel Crankshaw、Xin Wang、Joseph E Gonzalez和Michael J Franklin。2015 . 可扩展的培训和个性化模型服务。NIPS 2015机器学习系统研讨会(LearningSys)。Daniel Crankshaw、Xin Wang、Joseph E Gonzalez和Michael J Franklin。2015年,个性化模型的可扩展培训和服务。NIPS 2015机器学习系统研讨会(LearningSys)。},{“key”:“e_1_2_1_24_1”,“volume-title”:“Clipper:一种低延迟在线预测服务系统。第14届{USENIX}网络系统设计与实现研讨会({NSDI}17)。613--627.“,“作者”:“克兰肖·丹尼尔”,“年份”:“2017年”,“非结构化”:“丹尼尔·克兰肖、王欣、周吉利奥、迈克尔·富兰克林、约瑟夫·冈萨雷斯和伊恩·斯托伊卡。2017 . Clipper:低延迟在线预测服务系统。在第14届{USENIX}网络系统设计与实现研讨会上({NSDI}17)。613--627. Daniel Crankshaw、Xin Wang、Guilio Zhou、Michael J Franklin、Joseph E Gonzalez和Ion Stoica。2017年,Clipper:低延迟在线预测服务系统。在第14届{USENIX}网络系统设计与实现研讨会上({NSDI}17)。613--627.“},{”key“:”e_1_2_1_25_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/997817.997857”},“key”:“e_1_i_1_26_1”,“unstructured”:“Biplob K Debnath Sudipta Sengupta and Jin Li.2010。ChunkStash:使用闪存加速内联存储重复数据消除。在USENIX年度技术会议上。1--16. Biplob K Debnath Sudipta Sengupta和Jin Li,2010年。ChunkStash:使用闪存加速内联存储重复数据消除。在USENIX年度技术会议上。1--16.“},{”key“:”e_1_1_27_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3318464.3389747”},“key”:“e_2_1_28_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/TKDE.2007.250581“}”,{R Garey和David S Johnson,1979年。计算机和棘手。第174卷。旧金山自由人。迈克尔·加里(Michael R Garey)和大卫·约翰逊(David S Johnson)。1979年。计算机和棘手。第174卷。旧金山自由人。“},{”key“:”e_1_1_30_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/355616.361019”},“key”:“e_2_1_31_1”,“volume-title”:“word2vec Explained:派生Mikolov等人的否定抽样单词嵌入方法。arXiv预印本arXiv:1402.3722”,“author”:“Goldberg Yoav”,“年份”:“2014”,“非结构化”:“Yoav Goldber and Omer Levy.2014。word2vec解释:推导出Mikolov等人的负采样词嵌入方法。arXiv预印本arXiv:1402.3722(2014)。尤夫·戈德堡和奥马尔·利维。2014.word2vec解释:推导Mikolov等人的消极抽样词嵌入方法。arXiv预印本arXiv:1402.3722(2014)。},{“key”:“e_1_2_1_32_1”,“volume-title”:“深度压缩:通过剪枝、训练量化和哈夫曼编码压缩深度神经网络。arXiv预印本arXiv:1510.00149”,《作者》:“汉松”,“年份”:“2015”,“非结构化”:“宋汉、毛慧子和威廉·戴利。2015。深度压缩:通过修剪、训练量化和哈夫曼编码对深度神经网络进行压缩。arXiv预印arXiv:1510.00149(2015)。宋汉、毛慧子和威廉·戴利。2015.深度压缩:通过剪枝、训练量化和哈夫曼编码压缩深度神经网络。arXiv预印arXiv:1510.00149(2015)。},{“key”:“e_1_1_33_1”,“volume-title”:“学习有效神经网络的权重和连接。arXiv预印本arXiv:1506.02626”,“author”:“Han Song”,“year”:“2015”,“unstructured”:“Song Han,Jeff Pool,John Tran,and William J Dally。2015。学习有效神经网络的权值和连接。arXiv预印arXiv:1506.02626(2015)。宋汉(Song Han)、杰夫·普尔(Jeff Pool)、约翰·特兰(John Tran)和威廉·戴利(William J Dally)。2015.学习有效神经网络的权重和连接。arXiv预印arXiv:1506.02626(2015)。“},{”key“:”e_1_1_34_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/568271.223807”},“key”:“e_2_1_35_1”,“doi-assert-by”:“publisher”,”doi“:”10.1002\/net.3230070308“}”,{key“:”e_1_2_1_37_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/276698.276876”},{“key”:“e_1_2_1_38_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/CVPR.2018.00286”},{“key”:“e_1_i_1_39_1”,“doi-assert-by”:“publisher”,”doi“:”10.14778\/3317315.3317323“},”{“密钥”:“e_1_2_1_40_1”、“非结构化”:“Konstantinos Karanasos Matteo Interlandi Doris Xin Fotis Psallidas Rathijit Sen Kwanghyun公园Ivan Popivanov Supun Nakandal Subru Krishnan Markus Weimer等人2019。使用ML推理扩展关系查询处理。arXiv预印arXiv:1911.00231(2019)。Konstantinos Karanasos Matteo Interlandi Doris Xin Fotis Psallidas Rathijit Sen Kwanghyun公园Ivan Popivanov Supun Nakandal Subru Krishnan Markus Weimer等人2019年。使用ML推理扩展关系查询处理。arXiv预印arXiv:1911.00231(2019)。“},{”key“:”e_1_1_41_1“,”doi-asserted-by“:”publisher“,“doi”:“10.14778\/2367502.2367527”},“key”:“e_2_1_42_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/ICDE.2012.22“key”:“e_1_2_1_44_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/3386901.3388947“},{“key”:“e_1_2_1_45_1”,“卷标题”:“Markus Weimer和Matteo Interlandi。“,”作者“:”李云盛“,”年份“:”2018“,”非结构化“:”李云盛、阿尔贝托·斯科拉里、炳根春、马可·多梅尼科·桑坦布罗乔、马库斯·魏默和马特奥·英特兰迪。2018 . {PRETZEL}:打开机器学习预测服务系统的黑盒子。在第13届{USENIX}操作系统设计与实现研讨会({OSDI}18)上。611--626. 李云盛、阿尔贝托·斯科拉里、炳根春、马可·多梅尼科·桑坦布罗吉奥、马库斯·魏默和马泰奥·英特兰迪。2018.{PRETZEL}:打开机器学习预测服务系统的黑匣子。在第13届{USENIX}操作系统设计与实现研讨会({OSDI}18)上。611--626.“},{”key“:”e_1_2_1_46_1“,”首页“:”361“,”article-title“:”Rcv1:文本分类研究的新基准集合“,”author“:”Lewis David D“,”year“:”2004“,”unstructured“:”大卫·D·刘易斯(David D Lewis)、杨一鸣(Yiming Yang)、托尼·罗素(Tony Russell-Rose)和范丽(Fan Li)。2004 . Rcv1:文本分类研究的新基准集合。机器学习研究杂志5,Apr(2004),361-397。David D Lewis,Yiming Yang,Tony Russell Rose和Fan Li,2004年。Rcv1:文本分类研究的新基准集合。《机器学习研究杂志》5,Apr(2004),361--397。“,“Journal-title”:“Journal of machine learning research 5”},{“key”:“e_1_2_1_47_1”,“volume-title“:“第二届亚洲机器学习会议论文集。JMLR Workshop and conference Proceedings,241--252”,“author”:“李佩佩”,“year”:“2010”,“unstructured”:“李培培、吴新东和胡雪刚。2010 . 挖掘重复出现的概念会随着有限的标记流数据而漂移。第二届亚洲机器学习会议论文集。JMLR研讨会和会议记录,241--252。李培培,吴新东,胡雪刚.2010。挖掘重复出现的概念会随着有限的标记流数据而漂移。第二届亚洲机器学习会议论文集。JMLR研讨会和会议记录,241--252。“},{“key”:“e_1_2_1_48_1”,“volume-title”:“第十四届{USENIX}文件和存储技术会议({FAST}16)。301-314.“,“作者”:“李文姬”,“非结构化”:“李文姬,格雷戈里·简·巴蒂斯,胡安·里维罗斯,吉里·纳拉辛汉,张东尼,赵明。2016.CacheDedup:用于闪存缓存的内联重复数据消除。在第14届{USENIX}文件和存储技术会议({FAST}16)上。301--314. 李文吉(Wenji Li)、格雷戈里·詹·巴蒂斯(Gregory Jean-Baptise)、胡安·里维罗斯(Juan Riveros)、吉里·纳拉西姆汉(Giri Narasimhan)、张东尼(Tony Zhang)和赵明(Ming Zhao)。2016.CacheDedup:用于闪存缓存的内联重复数据消除。在第14届{USENIX}文件和存储技术会议({FAST}16)上。301-314.“},{”key“:”e_1_2_1_49_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/18.61115”},“key”:“e_1_i_1_50_1”,“doi-assert-by”:“publisher”,”doi“:”10.14778\/2536354.2536355“}”,{“key“:”e_2_2_51_1“,{“键”:“e_1_2_1_52_1”,“doi-asserted-by”:“出版商”,“doi”:“10.1016\/j.jmp.2017.05.006“},{“key”:“e_1_2_1_53_1”,“unstructured”:“Andrew Maas Raymond e Daly Peter T Pham Dan Huang Andrew Y Ng和Christopher Potts.2011。大型电影评论数据集。http:\/\/ai.stanford.edu\/~amaas\/data\/famotion\/安德鲁·马斯·雷蒙德·戴利·彼得·范·丹·黄·安德鲁·吴和克里斯托弗·波茨。2011.大型电影评论数据集。http:\/\/ai.stanford.edu\/~amaas\/data\/famotion\/“},{“key”:“e_1_1_54_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/2507157.2507163“}、{“key”:”e_1_i_1_55_1“,”doi-assert-by“:”publisher“,”doi“:”10.1145\/2766462.2767755“},{”键“:”e_1_2_1_57_1“,”doi-asserted-by“:”publisher“,”doi“:”10.5555\/294665.2946679“},{”key“:”e_1_2_1_58_1“,“doi-assert-by”:“publisher”,“doi”:“10.1145\/2078861.2078864”},}“key”:“e_1_i_1_59_1”,”volume-title“:”向量空间中单词表示的有效估计。arXiv预印本arXiv:1301.3781“,”author“:”Mikolov Tomas“,非结构化“:”Tomas Mikolov、Kai Chen、Greg Corrado和Jeffrey Dean。2013.向量空间中单词表示的有效估计。arXiv预印本arXiv:1301.3781(2013)。托马斯·米科洛夫(Tomas Mikolov)、陈凯(Kai Chen)、格雷格·科拉多(Greg Corrado)和杰弗里·迪恩(Jeffrey Dean)。2013.向量空间中单词表示的有效估计。arXiv预印本arXiv:1301.3781(2013)。“},{”key“:”e_1_2_1_60_1“,”unstructured“:”Simon Mo Edward Oakes和Michael Galarnyk.[n.d.]。生产中的ML模型服务:通用模式。([n.d])。西蒙Mo Edward Oakes and Michael Gararnyk.[n.d].生产中的模型服务:常见模式。([n.d.].)。“}”,{“key”:“e_1_i_1_61_1”,“volume-title”:“Markus Weimer,and Matteo Interlandi.”,”作者:“纳坎达拉·苏普恩”,“年份”:“2020年”,“非结构化”:“纳孔达拉·苏普恩、卡拉·索尔、庆因·余、康斯坦蒂诺斯·卡拉纳索斯、卡洛·库里诺、马库斯·魏默和马泰奥·英特兰迪。2020 . 用于统一机器学习预测服务的张量编译器。在第14届{USENIX}操作系统设计与实现研讨会({OSDI}20)上。899--917. 素蓬·纳坎达拉(Supun Nakandala)、卡拉·索尔(Karla Saur)、庆应玉(Gyeong-In-Yu)、康斯坦蒂诺斯·卡拉纳索斯(Konstantinos Karanasos)、卡洛·库里诺(Carlo Curino)、马库斯·魏默(Markus Weimer)和马泰。2020.用于统一机器学习预测服务的张量编译器。在第14届{USENIX}操作系统设计与实现研讨会({OSDI}20)上。899--917.“},{”key“:”e_1_2_1_62_1“,”volume-title“:”Tensorflow-serving:灵活、高性能ml服务。arXiv预印本arXiv:1712.06139“,”author“:”Olston Christopher“,“年份”:“2017”,“非结构化”:“克里斯托弗·奥尔斯顿(Christopher Olston)、诺亚·菲德尔(Noah Fiedel)、基里尔·戈罗维(Kiril Gorovoy)、杰里米亚·哈姆森(Jeremiah Harmsen)、李劳(Li Lao)、李方伟(Fangwei Li)、维努·拉贾谢哈尔(Vinu Rajashekhar)、苏克里蒂·拉梅什(Sukriti Ramesh)和乔丹·索克(Jordan Soyke)。2017 . Tensorflow服务:灵活、高性能的ml服务。arXiv预印arXiv:1712.06139(2017)。Christopher Olston、Noah Fiedel、Kiril Gorovoy、Jeremiah Harmsen、Li Lao、Fangwei Li、Vinu Rajashekhar、Sukriti Ramesh和Jordan Soyke。2017.Tensorflow服务:灵活、高性能ml服务。arXiv预印arXiv:1712.06139(2017)。“},{”key“:”e_1_1_63_1“,”doi-asserted-by“:”publisher“,“doi”:“10.14778\/3415478.3415572”},“key”:“e_2_1_64_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3341301.3359658“}、{”密钥“:”e_1_2_1_65_1“、”非结构化“:”Larry J Stockmeyer.1975。集合基问题是NP-完全问题。IBM Thomas J.Watson Research Division Research报告。拉里·斯托克梅耶。1975年,集合基问题是NP-完全问题。IBM Thomas J.Watson Research Division Research报告。“},{”key“:”e_1_1_66_1“,”doi-asserted-by“:”publisher“,“doi”:“10.5555\/2032397.2032399”},“key”:“e_2_1_67_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/1266840.1266870“:”e_1_2_1_69_1“,”卷时间“:”2020年USENIX年度技术会议(USENIXATC 20)”,“作者”:“王秋萍”,“年份”:“2020年”,“非结构化”:“王秋萍、李金红、文霞、埃里克·克鲁斯、比布罗夫·德伯纳和帕特里克·PC·李。2020 . 具有重复数据消除和压缩功能的简约闪存缓存。2020年,USENIX年度技术会议(USENIXATC 20)。713--726. 王秋萍、李金红、文霞、埃里克·克鲁斯、比布罗夫·德伯纳和帕特里克·PC·李。2020年。采用重复数据消除和压缩的简约闪存缓存。2020年,USENIX年度技术会议(USENIXATC 20)。713--726.“},{”key“:”e_1_2_1_70_1“,”volume-title“:”Teck Khim Ng和Beng Chin Ooi“,“author”:“Wang Wei”,“year”:“2018”,“unstructured”:“Wei Wang,Sheng Wang,Jinyang Gao,Meihui Zhang,Gang Chen,Teck Khim Ng,and Beng Chin-Ooi.2018.Rafiki:作为分析服务系统的机器学习。arXiv预印本arXiv:1804.06087(2018)王伟、王胜、高金阳、张美辉、陈刚、吴德钦和吴本钦。2018年,Rafiki:机器学习作为一种分析服务系统。arXiv预印本arXiv:1804.06087(2018)。“},{”key“:”e_1_2_1_71_1“,”volume-title“:”SPORES:大型线性代数通过关系等式饱和的和积优化。arXiv预印本arXiv:2002.07951“,”author“:”Wang Yisu Remy“,“年份”:“2020”,“非结构化”:“Yisu Lemy Wang,Shana Hutchison,Jonathan Leang,Bill Howe,and Dan Suciu。2020。SPORES:通过大型线性代数的关系等式饱和进行的和产品优化。arXiv预印arXiv:2002.07951(2020)。Yisu Remy Wang、Shana Hutchison、Jonathan Leang、Bill Howe和Dan Suciu。2020年。SPORES:通过大规模线性代数的关系等式饱和进行和-产品优化。arXiv预印arXiv:2002.07951(2020)。“},{”key“:”e_1_1_72_1“,”doi-asserted-by“:”publisher“,“doi”:“10.14778\/1453856.1453957”},“key”:“e_2_1_73_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/TKDE.2016.2638838“}”,{“key“:”e_2_ 1_74_1“、”volume-title“:”机器学习系统设计的张量关系代数。arXiv-print arXiv:2009.00524”,“作者”:“袁斌航”,“年份”:“2020年”,“非结构化”:“Binhang Yuan、Dimitrije Jankov、Jia Zou、Yuxin Tang、Daniel Bourgeois和Chris Jermaine。2020。机器学习系统设计的张量关系代数。arXiv预打印arXiv:2009.00524(2020)。袁彬杭(Binhang Yuan)、杨可夫(Dimitrije Jankov)、贾邹(Jia Zou)、汤玉欣(Yuxin Tang)、丹尼尔·布尔乔伊斯(Daniel Bourgeois)和克里斯·杰梅因(Chris Jermaine)。2020.用于机器学习系统设计的张量关系代数。arXiv预打印arXiv:2009.00524(2020)。“},{”key“:”e_1_2_1_75_1“,”unstructured“:”Matei Zaharia Mosharaf Chowdhury Michael J Franklin Scott Shenker和Ion Stoica.2010。Spark:使用工作集的集群计算。在USENIX HotCloud中。1--10. Matei Zaharia Mosharaf Chowdhury Michael J Franklin Scott Shenker和Ion Stoica。2010.Spark:使用工作集的集群计算。在USENIX HotCloud中。1-10.“},{”key“:”e_1_2_1_76_1“,”unstructured“:”向章俊波,赵延乐村,2015。Yelp极性检查数据集。http:\/\/goo.gl \/JyCnZq项张俊波赵和Yann LeCun。2015年,Yelp极性审查数据集。http:\/\/goo.gl \/JyCnZq“},{“key”:“e_1_2_1_77_1”,“volume-title”:“只有在最适合你的时候才是最好的:基于动态位置敏感哈希找到服务的相关模型。arXiv预印本arXiv:2010.09474”,“author”:“周立喜”,“year”:“2020”,“unstructured”:“Lixi Zhou,Zjie Wang,Amitabh Das,and Jia Zou.2020。只有在最适合您的情况下,它才是最好的:基于动态位置敏感哈希找到服务的相关模型。arXiv预印本arXiv:2010.09474(2020)。周立熙、王子杰、阿弥陀佛、贾邹。2020年。只有在最适合你的时候才是最好的:基于动态位置敏感哈希找到服务的相关模型。arXiv预印本arXiv:2010.09474(2020)。“},{”key“:”e_1_1_78_1“,”first page“:“269”,”article-title“:“避免数据域重复数据消除文件系统中的磁盘瓶颈”,“volume”:“8”,“author”:“Zhu Benjamin”,“year”:“2008”,“unstructured”:“Benjamin Zhu、Kai Li和R Hugo Patterson。2008 . 避免数据域重复数据消除文件系统中的磁盘瓶颈。《快速》第8卷。269 -- 282 . Benjamin Zhu、Kai Li和R Hugo Patterson。2008年。避免数据域重复数据消除文件系统中的磁盘瓶颈。《速度》,第8卷。269--282.“,”journal-title“:”Fast“},{“key”:“e_1_2_1_79_1”,“volume-title”:“LSH集合:互联网规模的领域搜索。arXiv预印本arXiv:1603.07410”,“作者”:“朱尔康”,“年份”:“2016”,“非结构化”:“朱尔康,法特梅·纳格森,Ken Q Pu,和Ren\u00e9e J Miller,2016。LSH集成:互联网规模的领域搜索。arXiv预印arXiv:1603.07410(2016)。朱尔康(Erkang Zhu)、法特梅·纳格森(Fatemeh Nargesian)、肯·Q·浦(Ken Q Pu)和伦·米勒(Ren\u00e9e J Miller)。2016年。LSH集成:互联网规模的领域搜索。arXiv预印arXiv:1603.07410(2016)。“},{”key“:”e_1_1_80_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3183713.3196933”},“key”:“e_1_cu81_1”,“doi-assert-by”:“publisher”,”doi“:”10.14778\/3457390.3457392“}”,{键“:”e_1_2_1_83_1“,”卷时间“:”将文件系统、内存和计算结合在一个层中的分布式存储体系结构。《VLDB杂志》,“作者”:“邹佳”,“年份”:“2020年”,“非结构化”:“贾邹、阿伦·艾扬格和克里斯·杰梅因。2020年。将文件系统、内存和计算结合在一个单一层中的分布式存储体系结构。VLDB期刊(2020),1-25。邹佳、阿伦·艾扬加和克里斯·杰梅因。2020年。将文件系统、内存和计算结合在一个单一层中的分布式存储体系结构。《VLDB杂志》(2020),1-25.“}],“容器-标题”:[“VLDB捐赠会议记录”],“原始标题”:[],“语言”:“en”,“链接”:[{“URL”:“https:\\/dl.acm.org\\doi\/pdf\/10.14778\/354305.3547325”,“内容类型”:“未指定”,“content-version”:“vor”,“intended-application”:“相似性检查”}],”存放“:{“日期-部件”“:[2022,12,28]],”date-time“:”2022-12-28T11:18:05Z“,”timestamp“:1672226285000},”score“:1,”resource“:{主要”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.14778\/354305.3547325”}},“subtitle”:[],“shorttitle”:[],“issued”:lished-print“:{“date-parts”:[[2022,6]]}},“alternative-id”:[“10.14778\/35473305.3547325“],”URL“:”http://\/dx.doi.org\/10.14778\/3547305.35473“,”关系“:{},”ISSN“:[”2150-8097“],“ISSN-type”:[{“value”:“2150-80.97”,“type”:“print”}],“subject”:[],“published”:{“date-parts”:[2022,6]}}}}