{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部件”:[[2024,18]],“日期-时间”:“2024-01-18T08:52:49Z”,“时间戳”:1705567969583},“引用-计数”:49,“发布者”:“Elsevier BV”,“许可证”:[{“开始”:}“日期-部分”:[2022,8,1]],”日期-时间“:”2022-08-01T00:00:00Z“,”timestamp“:1659312000000},”content-version“:“tdm”,“delay-in-days”:0,“URL”:“https:\\/www.elsevier.com/tdm\/userlicense\/1.0\/”},{“start”:{“date-parts”:[2022,5,31]],“date-time”:“2022-05-31T00:00:00Z”,“timestamp”:1653955200000},“content-version”:“vor”,“delay-in-days”:“0,”URL“http://creativecommons.org\/licenses\/by-nc-nd \/4.0\/“}],”内容域“:{”域“:[”elsevier.com“,“sciencedirect.com”],“crossmark-restriction”:true},“short-container-title”:[“Information Sciences”],”published-print“:{“date-parts”:[[2022,8]]},”DOI“:”10.1016\/j.ins.2022.05.113“,”type“:”journal-article“,”created“:{“date-ports”:[2022,6,2],”date-time“:”2022-06-02T15:57:05Z“,”timestamp“:1654185425000},“:”186-210“,”更新策略“:“http://\/dx.doi.org\/10.1016\/elsevier_cm_policy”,“source”:“Crossref”、“is-referenced-by-count”:2,“title”:[“具有主题建模的封闭域的上下文增强句子表示学习方法”],“前缀”:“10.1016”,“卷”:“607”,“作者”:[{“给定”:“双音”,“家族”:“李”,“序列”:“第一”,“从属关系”:[]},{“已知”:“维威”,“家庭”:“Chen”,“sequence”:“additional”,“affiliation”:[]},{“given”:“Yu”,“family”:“Zhang”,“serquence”:“additionable”,“filiance”:[]}序列“:”附加“,”从属“:[]},{“given”:“Yong”,“family”:“Tang”,“sequence”:“additional”,“affiliation”:[]}],“member”:“78”,“reference”:[{“key”:《10.1016\/j.ins.2022.05.113_b0005》,“series-title”:《计算语言学协会第54届年会论文集(第一卷:长篇论文)》,“首页”:“464”,“article-title”:“用于问答匹配的改进表征学习”,“author”:“Tan”,“year”:“2016”},{“key”:“10.1016\/j.ins.2022.05.113_b0010”,“series-title”:“2013年自然语言处理实证方法会议论文集”,“first page”:《1631》,“article-title”:“情感树库上语义合成的递归深度模型”,“作者”:“Socher”,“年份”:“2013”},{“问题”:“8”,“关键”:“10.1016\/j.in.2022.05.113_b0015”,“doi断言”:“crossref”,“首页”:“1735”,“doi”:“10.1162\/neco.1997.9.81735”,“文章标题”:“长短期记忆”,“卷”:“9”,“作者”:“Hochreiter”,“年份”:“1997”,“journal-title”:“神经计算”},{“key”:“10.1016\/j.ins.2022.05.113_b0020”,“非结构化”:“R.Kiros,Y.Zhu,R.R.Salakhutdinov,R.Zemel,R.Urtasun,A.Torralba,S.Fidler,Skip-thought-vectors,in:《神经信息处理系统的进展》,2015年,第3294\u20133302页。”}。Logeswaran,H.Lee,《学习句子表征的有效框架》,arXiv预印本arXiv:1803.02893(2018)。“},{”key“:”10.1016\/j.ins.2022.05.113_b0030“,”unstructured“:”j.Devlin,M.-W.Chang,K.Lee,K.Toutanova,Bert:语言理解的深度双向变换器的预训练,arXiv预印本arXiv:1810.04805(2018)。Salakhutdinov,Q.V.Le,Xlnet:语言理解的广义自回归预训练,arXiv预印本arXiv:1906.08237(2019)。“},{”key“:”10.1016\/j.in.2022.05.113_b0040“,”非结构化“:”Y.Liu,M.Ott,N.Goyal,j.Du,M.Joshi,D.Chen,O.Levy,M.Lewis,L.Zettlemoyer,V.Stoyanov,Roberta:一种稳健优化的伯特预训练方法,arXiv预印本arXiv:1907.11692(2019)。“},{”key“:”10.1016\/j.in.2022.05.113_b0045“,”文章标题“:”可以塞进单个向量的内容:探索句子嵌入的语言属性”,“author”:“Conneau”,“year”:“2018”,“journal-title”:“ACL”},{“key”:“10.1016\/j.ins.2022.05.113_b0050”,“doi-asserted-by”:“crossref”,”first page“:”53“,”doi“:”10.1016\/j.patrec.2019.018“,”article-title“:”主题表征:在主题模型中寻找更具代表性的单词”,“volume”:“123”,“author”:“Chi”,“year”:“2019”,“journal-title”:“Pattern Recognition Letters”},{“key”:”10.1016\/j.ins.2022.05.113_b0055“,”article-title“:”无监督主题建模的词多义自适应跨上下文嵌入“,”volume“:”106827“,”author“:”Li“,”年份:“2021”,“journal-title”:“基于知识的系统”},{“key”:“10.1016\/j.ins.2022.05.113_b0060”,“doi-asserted-by”:“crossref”,“unstructured”:“S.Li,Y.Zhang,R.Pan,K。Mo,自适应概率词嵌入,in:《2020年网络会议论文集》,WWW\u201920,美国纽约州纽约市计算机械协会,2020年,第651\u2013661页。“,”DOI“:”10.1145\/3366423.338147“},{“key”:“10.1016\/j.ins.2022.05.113_b0065”,“series-title”:“人工智能发展协会(AAAI)”,“首页“:”3223“,”article-title“:”递归注意主题模型,in:第31届AAAI人工智能会议(AAAI-17)“,”author“:”Li“,”year“:”2017“},{“key”:“10.1016\/j.ins.2022.05.113_b0070”,”series-title“:“纳米电子学、电路和通信系统”,”first page“:”1“,”article-titel“:”医学数据集分类以及使用ldas进行主题建模“,”author“:”Selvi“,”year“:”2019“},{”key“:”10.1016\/j.ins.2022.05.113_b0075“,”unstructured“:”j.Tang,Z.Meng,X.Nguyen,Q.Mei,M。张,通过后收缩分析了解主题建模的限制因素,载于:国际机器学习会议,2014年,第190\u2013198页。“},{“key”:“10.1016\/j.ins.2022.05.113_b0080”,“doi-asserted-by”:“crossref”,“first page”:嵌入单词的在线主题发现的非参数模型“,”volume“:”504“,”author“:”Chen“,”year“:”2019“,”journal-title“:”Information Sciences“},{“key”:“10.1016\/j.ins.2022.05.113_b0085”,”doi-asserted-by“:”crossref“,”first-page“:”66“,”doi“:”10.1016\/j.ins.2017.02007“,“article-title”:“主题建模扩展短文本的通用框架“,”卷“:”393“,”作者“:”Bicalho“,”年份“:”2017“,”期刊标题“:”信息科学“},{“key”:“10.1016\/j.ins.2022.05.113_b0090”,“doi-asserted-by”:“crossref”,“first page”:”83“,”doi“:”10.1016\/j.ins.2018.04.071“,”article-title“:”过滤短文本主题建模中的噪音“,”volume“:”456“,”author“:”Li“,”year“:”2018“,”journal-title“:”Information Sciences“},{“key”:“10.1016\/j.ins.2022.05.113_b0095”,“doi-asserted-by”:“crossref”,“unstructured”:“M.E.Peters,M.Neumann,M.Iyyer,M.Gardner,C.Clark,K.Lee,L.Zettlemoyer,Deep contextualized word representation,arXiv预印本Xiv:1802.05365(2018)。”,“doi”:“10.18653\/v1\/N18-1202“},{“key”:“10.1016\/j.ins.2022.05.113_b0100”,“doi-asserted-by”:“crossref”,“unstructured”:“j.Pennington,R.Socher,C.D.Manning,Glove:Global vectors for word representation”,收录于:EMNLP,2014年第14卷,第1532\u20131543页。”,“doi”:“10.3115\/v1\/D14-1162”},“{“key”:”10.1016\/j.ins.2022.05.113_b0105“,“series-title”:“向量空间中单词表示的有效估计”,“author”:“Mikolov”,“year”:“2013”},{“key”:“10.1016\/j.ins.2022.05.113_b0110”,“doi-asserted-by”:“crossref”,“unstructured”:“D.Cer,Y.Yang,S.-Y.Kong,N.Hua,N.Limtiaco,R.S.John,N.Constant,M.Guajardo-Cespedes,S.Y.Kong。Tar等人,《通用句子编码器》,arXiv预印本arXiv:1803.11175(2018)。“,”DOI“:”10.18653\/v1\/D18-2029“},{“key”:“10.1016\/j.ins.2022.05.113_b0115”,“article-title”:“Paranmt-50m:用数百万机器翻译突破释义句嵌入的限制”,“author”:“Wieting”,“year”:“2018”,“journal-title“:”ACL“}”,{”key“:”1016\/j.ins.202.25.113_b0120“,”“article-title:”Usr-mtl:一个具有多任务学习的无监督句子表征学习框架”,“author”:“Xu”,“year”:“2020”,“journal-title”:“Applied Intelligence”},{“key”:“10.1016\/j.ins.2022.05.113_b0125”,“article-title“:“使用合成n-gram特征的句子嵌入的无监督学习”,“作者”:“Pagliardini”,“年份”:“2018”,“期刊标题“:”NAACL“},{“key”:“10.1016\/j.in.2022.05.113_b0130”,“非结构化”:“R.Socher,E.H.Huang,j.Pennin,C.D.Manning,A.Y.Ng,用于转述检测的动态池化和展开递归自动编码器,在:神经信息处理系统的进展,2011,第801\u2013809页。”},{“key”:“10.1016\/j.in.2022.05.113_b0135”doi-asserted-by“:”crossref“,”unstructured“:”D.Cer,Y.Yang,S.-Y.Kong,N.Hua,N.Limtiaco,R.St.John,N.Constant,M.Guayardo-Cespedes,S.Yuan,C.Tar,B.Strope,R.Kurzweil,英语通用句子编码器,2018。“,”doi“:”10.18653\/v1\/D18-2029“},{“key”:“10.1016\/j.ins.2022.05.113_b0140”,“article-title”:“可解释神经对话生成的无监督离散句子表示学习”,“作者”:“Zhao”,“年份”:“2018”,“日记标题”:“ACL”},{“key”:“10.1016\/j.ins.2022.05.113_b0145”,“doi-asserted-by”:“crossref”,“unstructured”:“N.Reimers,I。Gurevych,《句子-伯特:使用暹罗贝特网络的句子嵌入》,arXiv预印本arXiv:1908.10084(2019)。“,”DOI“:”10.18653\/v1\/D19-1410“},{“key”:“10.1016\/j.ins.2022.05.113_b0150”,“DOI-asserted-by”:“crossref”,“unstructured”:“C.May,A.Wang,S.Bordia,S.R.Bowman,R.Rudinger,《关于测量句子编码器中的社会偏见》,arXiv预印本arXiv:1903.10561(2019)。”,“DOI”:“10.j.ins.2022.05.113_b0155“,”非结构化“:”田凤、高斌、何德华、刘天勇,句子级重复话题模型:让话题为自己说话,arXiv预印本arXiv:1604.02038(2016)。“},{”issue“:”6“,”key“:”10.1016\/j.ins.2022.05.113_b0160“,”article-title“:”双向反复注意话题模型,ACM-Trans“,”volume“:“14”,”author“:”Li“,“year”:“2020”,”journal-title”:“Knowl.Discov.Data”}“,{“issue”:“4”,”key:“10.1016\/j.ins.2022.05.113_b0165”,“doi-asserted-by”:“crossref”,“first page”:“786”,“doi”:“10.1109\/TKDE.2017.2778720“,“article-title”:“无监督集群匹配的主题模型”,“volume”:“30”,“author”:“岩手”,“year”:“2017”,“journal-title“:”IEEE知识与数据工程学报“},{“key”:”10.1016\/j.ins.2022.05.113_b0170“,”series-title“:“2020 IEEE网络服务国际会议(ICWS)”,“首页”:“433”,“article-title“:”bi-hptm:一种有效的web服务发现语义匹配模型“,”author“:”Li“,”year“:”2020“},{“issue”:“2”,“key”:“10.1016\/j.ins.2022.05.113_b0175”,“doi-asserted-by”:“crossref”,“first-page”:“445”,“doi”:“101007\/s11280-022-01004-7”基于双向贝叶斯概率模型的web服务发现混合粒度语义匹配”,“卷”:“25”,“作者”:“李”,“年份”:“2022”,“新闻标题”:“万维网”},{“密钥”:“10.1016\/j.ins.2022.05.113_b0180”,“doi-asserted-by”:“crossref”,“非结构化”:“P.Gupta,Y.Chaudhary,F.Buettner,H。Sch\u00fctze,Document informed neural autoregressive topic models with distribution prior,in:《AAAI Conference on Artificial Intelligence》第33卷,2019年,第6505\u20136512页。“,”DOI“:”10.1609\/AAAI.v33i01.33016505“},{“issue”:“2”,“key”:“10.1016\/j.ins.2022.05.113_b0185”,“DOI-asserted-by”:“crossref”,“first page”:”318“,“DOI”:“10.1109\/TPAMI.2017.2677439“,”article-title“:“主题模型的深入展开”,“volume”:“40”,“author”:“Chien”,“year”:“2017”,“journal-title”:“IEEE模式分析和机器智能事务”},{“key”:”10.1016\/j.ins.2022.05.113_b0190“,”doi-asserted-by“:”crossref“,”unstructured“:”T。霍夫曼,概率潜在语义分析,摘自:《第十五届人工智能不确定性会议论文集》,摩根考夫曼出版社,1999年,第289\u2013296页。“,“DOI”:“10.1145\/312624.312649”},{“key”:“101016\/j.ins.2022.05.113_b0195”,“非结构化”:“S.Patterson,Y.W。Teh,概率单纯形上的随机梯度黎曼-朗之万动力学,in:神经信息处理系统的进展,2013年,第3102\u20133110页首页“:“611”,“文章标题”:“非监督模型的在线em”,“作者”:“梁”,“年份”:“2009”,“期刊标题”:《ACL》},{“关键”:“10.1016\/j.ins.2022.05.113_b0210”,“非结构化”:“M.霍夫曼,F.R.巴赫,D.M.布莱,潜在dirichlet分配的在线学习,in:神经信息处理系统的进展,2010,第856\u2013864页”},}“key“:”10.1016\/j.ins.2022.05.113_b0215“,”unstructured“:”K.Stevens,P.Kegelmeyer,D.Andrzejewski,D.Butter,探索多模型和多主题的主题连贯性,摘自:《2012年自然语言处理和计算自然语言学习实证方法联合会议论文集》,计算语言学协会,2012年,第952\u2013961页。“},{”key“:”10.1016\/j.ins.2022.05.113_b0220“,”first page“:计算语言学“},{“key”:“10.1016\/j.in.2022.05.113_b0225”,“doi断言者”:“crossref”,“非结构化”:“M.Yang,T.Cui,W.Tu,排序敏感和语义感知主题建模,in:第二十九届AAAI人工智能会议,2015。”,“doi”:“10.1609\/aai.v29i1.9501”},{“issue”:“3”,“key”:“10.1016\/j.in.2022.05.113_b0230”,“doi-asserted-by“:”crossref“,”first page“:”475“,”doi“:”10.1007\/s10115-011-0425-1“,“article-title”:“顺序潜在dirichlet分配”,“volume”:“31”,“author”:“Du”,“year”:“2012”,“journal-title“:”Knowledge and information systems“},{“key”:”10.1016\/j.ins.2022.05.113_b0235“,”首页“:”2708“,”article-title“A neural autoregressive topic model”,“author”:“Larochelle”,“year”:“2012”,“journal-title”:“Advances in neural Information Processing Systems”},{“key”:“10.1016\/j.ins.2022.05.113_b0240”,“series-title”:《2017 IEEE国际数据挖掘会议(ICDM)》,“首页”:“635”,“article-title“:”Metalda:有效整合元信息的主题模型“,”author“:”Zhao“,”year“:”2017“},{”key“:”10.1016\/j.ins.2022.05.113_b0245“,”article-title“:”使用辅助预测任务对句子嵌入进行精细分析“,”author“:”Adi“,”year“:“2017”,”journal title“:“ICLR”}],”container-title”:[“information Sciences”],“original-title“:[],”language“:”en“,”link“:[{”URL“:”https:\/\/api.elsevier.com/content\/article\/PII:S0020025522005540?httpAccept=text\/xml“,”content-type“:”text\/xml“,”content-version“:”vor“,”intended-application“:”text-mining“},{”URL“:”http://api.elsevier.com/content\/aarticle\-PII:S020025522005540?httpAccelect=text\/plain“,”content-type“:”text\/plain”,“内容版本”:“vor”,“预期应用程序”:“文本挖掘”}],“已存放”:{“日期部分”:[[2023,1,20],“日期时间”:“2023-01-20T10:42:04Z”,“时间戳”:1674211324000},“分数”:1,“资源”:{“主要”:{“URL”:“https://linkinghub.elsevier.com/retrieve\/pii\/S020025522005540”},“副标题”:[],“短标题”:[],“已发布”:{date-parts“:[[2022,8]]},”references-count“:49,”alternative-id“:[”S0020025522005540“],”URL“:”http://\/dx.doi.org\/10.1016\/j.ins.2022.05.113“,”relationship“:{},“ISSN”:[”0020-0255“],“ISSN-type”:[{“value”:“0020-02555”,“type”:“print”}],“subject”:【】,“published”:{“date-parts:[”[2022,8]]},“断言”:[{“value”:“Elsevier”,“name”:“publisher”,“label”:“本文由“},{”value“:”一种使用主题建模的近域上下文增强句子表示学习方法“,”name“:”articletitle“,”label“:”article Title“}”,{“value”:“Information Sciences”,“name”:“journaltitle”,“label”:“Journal Title”},“value”:“https:\/\/doi.org\/101016\/j.ins.2022.05.113”,“name”:“articlelink”,“label“:”CrossRef DOI link to publisher maintained version“},{“value”:“article”,“name”:“content_type”,“label”:“content-type”},}“values”:“\u00a9 2022 The Author(s)s.Published by Elsevier Inc.”,“名称”:“版权”,“标签”:“copyright”}]}