{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部件”:[[2024,3,19]],“日期-时间”:“2024-03-19T00:22:53Z”,“时间戳”:1710807773306},“出版商位置”:“美国纽约州纽约市”,“参考-计数”:29,“出版者”:“ACM”,“资助者”:[{“DOI”:“10.13039\/https:\\/DOI.org \/10.103039\/501100001809“,”名称“:“国家自然科学基金”,“doi断言者”:“出版商”,“奖项”:[“62176023”]}],“内容域”:{“域”:[“dl.acm.org”],“交叉标记限制”:true},“短容器标题”:[],“已发表的印刷品”:{“日期部分”:[[2023,12,15]]},“doi”:“10.1145\/33639233.3639239”,“类型”:“诉讼文章”,“创建”:{“日期部分”:[[2024,3,5]],“date-time”:“2024-03-05T16:02:10Z”,“timestamp”:1709654530000},“update-policy”:“http://\/dx.doi.org\/10.1145\/crossmark-policy”,“source”:”Crossref“,”is-referenced-by-count“:0,”title“:[”CoPrompt:A Contrast-prompt Tuning Method for Multiparty Dialogue Character Relationship Extraction“],”prefix“:”10.1145“,“author”:[{“ORCID”:“http://\/orcid.org\/0009-0003-4931-0755”,“authenticated-orcid”:false,“given”:“Yu”,“family”:“Li”,“sequence”:“first”,“affiliation”:[{“name”:“中国北京信息科技大学计算机科学学院”}]},{“orcid”:,“sequence”:“additional”,“affiliation”:[{“name”:“中国北京信息科技大学计算机科学学院”}]},{“ORCID”:“http://\/ORCID.org\/0009-0008-1610-1136”,“authenticated-ORCID”:false,“given”::“中国北京信息科技大学计算机科学学院”}]},{“ORCID”:“http://\/ORCID.org\/00000-0001-5364-3550”,“authenticated-ORCID”:false,“given”:”梁国“,“family”:“Wang”,“sequence”:“additional”,“affiliation”:[{“name”:“北京信息科学技术大学计算机科学院”}]{,{“ORCID”:“http:\/\/ORCID.org/0009-00007-9679-4982”,“认证的ORCID”:false,“给定的”:“渔阳”,“家族”:“涛”,“序列”:“附加的”,“隶属关系”:[{“名称”:“中国北京信息科技大学计算机科学学院”}]},{“ORCID”:“http:\/\/ORCID.org/0000-0002-0280-8455”,“认证的ORCID”:false,“给定的”:“杨森”,“family”:“Zhang”,“sequence”:“additional”,“affiliation”:[{“name”:“中国北京信息科技大学计算机科学学院”}]}],“member”:“320”,“published-online”:{“date-parts”:[[2024,3,5]]},“reference”:[}“key”:“e_1_3_2_1_1_1_1”,“volume-title”:“语言模型是少数优秀的学习者。神经信息处理系统的进展33”,“作者”:“Brown Tom”,“年份”:“2020年”,“非结构化”:“Tom Brown,Benjamin Mann,Nick Ryder,Melanie Subbiah,Jared\u00a0D Kaplan,Prafulla Dhariwal,Arvind Neelakantan,Pranav Shyam,Girish Sastry,Amanda Askell,2020年。语言模型的学习者很少。《神经信息处理系统进展》33(2020),1877\u20131901。“},{”key“:”e_1_3_2_1_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3485447.3511998”},“key”:“e_1_ 3_2_1_3_1”,“volume-title”:“图像值16x16个单词:尺度下图像识别的变形金刚。arXiv预印本arXiv:2010.11929”,“作者”:“Dosovitskiy Alexey”,““2020年”,“非结构化”:“阿列克谢·多索维茨基、卢卡斯·拜尔、亚历山大·科尔斯尼科夫、德克·魏森博恩、翟晓华、托马斯·恩特提纳、莫斯塔法·德哈尼、马蒂亚斯·明德勒、格奥尔格·海戈尔德、西尔万·盖利,2020年。一幅图像相当于16x16个单词:用于大规模图像识别的变形金刚。arXiv预印本arXiv:2010.11929(2020)。},{“key”:“e_1_3_2_1_4_1”,“volume-title”:“Cert:对比性自主学习促进语言理解。arXiv预印本arXiv:2005.12766”,“author”:“方鸿超”,“year”:“2020”,“unstructured”:“方鸿超,王思成,孟舟,丁嘉元,谢鹏涛。2020。证书:针对语言理解的对比性自主学习。arXiv预印arXiv:2005.12766(2020)。},{“key”:“e_1_3_2_1_5_1”,“volume-title”:“关系提取的注意引导图卷积网络。arXiv预印本arXiv:1906.07510”,“author”:“郭之江”,“year”:“2019”,“unstructured”:“Guo Zhijiang,Yan Zhang,Wei Lu.2019”。用于关系提取的注意引导图卷积网络。arXiv预印本arXiv:1906.07510(2019)。“},{”key“:”e_1_3_2_1_6_1“,”volume-title“:”Warp:单词级对抗性重编程。arXiv预打印arXiv:2101.00121“,“author”:“Hambardzumyan Karen”,“year”:“2021”,“unstructured”:“Karen Hambardsumyan,Hrant Khachatrian,and Jonathan May.2021”。扭曲:文字级对抗性重新编程。arXiv预打印arXiv:2101.0121(2021)。“},{”key“:”e_1_3_2_1_7_1“,”doi断言“:”publisher“,”doi“:”10.1016\/j.aopen.202.11.003“},{”key“:”e_1_3_2_1_8_1“,”卷标题“:”第十三届语言资源与评估会议论文集.237\u20132344“,”作者“:”蒋玉茹“,”年份“:”2022“,”非结构化“:”姜玉茹、杨旭、詹玉杭、何伟凯、王依林、奚子轩、王美云、李新余、李宇丽和余燕超。2022.CRECIL语料库:中国多党对话中字符关系提取的新数据集。第十三届语言资源与评估会议论文集。2337\u20132344.“},{“key”:“e_1_3_2_1_9_1”,“volume-title”:“我们怎么知道语言模型知道什么?计算语言学协会学报8”,“author”:“蒋正宝”,“year”:“2020”,“unstructured”:“姜正宝,Frank\u00a0F Xu,Jun Araki,and Graham Neubig。2020。我们如何知道语言模型知道什么?计算语言学协会学报8(2020),423\u2013438.“},{”key“:”e_1_3_2_1_10_1“,”volume-title“:”naacL-HLT学报,第\u00a01卷。2.“,”author“:”Ming-Wei\u00a0Chang Jacob Devlin“,”year“:”2019“,”unstructured“:”Jacob Devlin Ming-Wei \u00a 0Chang Kenton和Lee_u00a0 Kristina Toutanova“。2019.伯特:深度双向变形金刚语言理解预培训。《naacL-HLT会议录》,卷\u00a01。2.“},{”key“:”e_1_3_2_11_1“,”volume-title“:”深度卷积神经网络的Imagenet分类。神经信息处理系统进展25“,”author“:”Krizhevsky Alex“,”year“:”2012“,”unstructured“:”Alex Krizhovsky,Ilya Sutskever,and Geoffrey\u00a0E Hinton.2012。基于深度卷积神经网络的Imagenet分类。神经信息处理系统进展25(2012年)。“},{”key“:”e_1_3_2_12_1“,”volume-title“:”基于图形的网络,具有对话转折的上下文化表示。arXiv预印本arXiv:2109.04008“,”author“:”Lee Bongseok“,”year“:”2021“,“unstructured”:”Bongseek Lee和Yong\u00a0Suk Choi.2021。基于图形的网络,具有对话中转折的上下文化表示。arXiv预印arXiv:2109.04008(2021)。“},{”key“:”e_1_3_2_13_1“,”volume-title“:”前缀调整:优化生成的连续提示。arXiv预打印arXiv:2101.00190“,“author”:“Li Xiang\u00a0Lisa”,“year”:“2021”,“unstructured”:“Xiang\ u00a0 Lisa and Percy Liang.2021”。前缀调整:优化生成的连续提示。arXiv预印本arXiv:2101.00190(2021)。},{“key”:“e_1_3_2_14_1”,“首页”:“1”,“文章标题”:“训练前、提示和预测:自然语言处理中提示方法的系统调查”,“卷”:“55”,“作者”:“刘鹏飞”,“年份”:“2023”,“非结构化”:“刘鹏飞,袁维哲,傅金兰,蒋正宝,Hayashi,Graham Neubig.2023。预训练、提示和预测:自然语言处理中提示方法的系统调查。计算。调查55,9(2023),1\u201335.“,”新闻标题“:”计算。调查“},{”key“:”e_1_3_2_15_1“,”doi-asserted-by“:”publisher“,“doi”:“10.18653\/v1\/2022.acl-short.8”},“key”:“e_1_ 3_2_16_1”,“volume-title”:“作为知识库的语言模型?arXiv预印本arXiv:1909.01066”,“author”:“Petroni Fabio”,“年份”:“2019”,“非结构化”:“Fabio Petroni、Tim Rockt\u00e4schel、Patrick Lewis、Anton Bakhtin、Yuxiang Wu、Alexander \u00a0H Miller和Sebastian Riedel。2019.语言模型作为知识库?arXiv预印本arXiv:1909.01066(2019)。},{“key”:“e_1_3_2_1_17_1”,“volume-title”:“Socaog:对话中社会关系推理的增量图解析。arXiv预印本arXiv:2106.01006”,”author“:”邱亮“,”year“:”2021“,”unstructured“:”梁秋、袁亮、赵一舟、潘璐、彭宝林、周瑜、Ying\u00a0Nian Wu和宋春珠。2021。Socaog:用于对话中社会关系推理的增量图解析。arXiv预打印arXiv:2106.01006(2021)。“},{”key“:”e_1_3_2_18_1“,”volume-title“:”受限语言模型生成少量快照语义分析器。arXiv预打印arXiv:2104.08768“,”author“:”Shin Richard“,”year“:”2021“,”unstructured“:”Richard Shin、Christopher \u00a0H Lin、Sam Thomson、Charles Chen、Subhro Roy、Emmanouil \u00a Antonios Platanios、Adam Pauls、Dan Klein、Jason Eisner和Benjamin Van \u00a-Durme。2021.受约束的语言模型生成的语义解析器很少。arXiv预打印arXiv:2104.08768(2021)。},{“key”:“e_1_3_2_19_1”,“volume-title”:“自动提示:使用自动生成的提示从语言模型中获取知识。arXiv预印本arXiv:2010.15980”,“作者”:“Shin Taylor”,“年份”:“2020”,“非结构化”:“Taylor Shin,Yasaman Razeghi,Robert \u00a0L Logan \u00a 0IV,Eric Wallace,and Sameer Singh。2020。自动提示:通过自动生成的提示从语言模型中获取知识。arXiv预印本arXiv:2010.15980(2020)。},{“key”:“e_1_3_2_1_20_1”,“volume-title”:“理解LSTM\u2013a长短记忆递归神经网络教程。arXiv预印本arXiv:1909.09586”,“作者”:“Staudemeyer C”,“年份”:“2019”,“非结构化”:“Ralf\u00a0C Staudemoyer和Eric\u00a Rothstein Morris.2019。了解LSTM\u2013a长短期记忆递归神经网络教程。arXiv预印本arXiv:1909.09586(2019)。“},{“key”:“e_1_3_2_1_21_1”,“volume title”:“从几个例子中归纳:关于少镜头学习的调查。ACM计算调查(csur)53,3”,“作者”:“王亚庆”,“年份”:“2020”,“非结构化”:“王亚庆、姚全明、James \u00a0T Kwok和Lionel \u00a0M Ni。2020。从几个例子中总结:关于少数人学习的调查。ACM计算调查(csur)53,3(2020),1\u201334.“},{”key“:”e_1_3_2_1_22_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1609\/aaai.v35i16.17670“}”,{“key”:“e_1_ 3_2_1_2 3_1”,“doi-assert-by”:“publisher”,”doi:“10.1109\/ICASSP439222.2022.9747486”},“{”key“:“e_ 1_3_2 _1_24_1”、“volume”me-title“:”基于对话的关系抽取。arXiv预印本arXiv:2004.08056“,“作者”:“于典”,“年份”:“2020”,“非结构化”:“于典、孙凯、克莱尔·卡迪和董瑜。2020年。基于对话的关系提取。arXiv预印本arXiv:2004.08056(2020)。},{“key”:“e_1_3_2_1_25_1”,“volume-title”:“递归神经网络正则化。arXiv预印本arXiv:1409.2329”,“author”:“Zaremba Wojciech”,“year”:“2014”,“unstructured”:“Wojciench Zaremba,Ilya Sutskever,and Oriol Vinyals。2014。递归神经网络正则化。arXiv预印arXiv:1409.2329(2014)。},{“key”:“e_1_3_2_1_26_1”,“volume-title”:“剪枝依赖树上的图卷积改进了关系提取。arXiv预印本arXiv:1809.10185”,“author”:“Zhang Yuhao”,“year”:“2018”,“unstructured”:“Yuhoo Zhang,Peng Qi,and Christopher\u00a0D Manning。2018。剪枝依赖树上的图卷积改进了关系提取。arXiv预印arXiv:1809.10185(2018)。“},{”key“:”e_1_3_2_1_27_1“,”doi-asserted-by“:”publisher“,“doi”:“10.18653\/v1\/D17-1004”},“key”:“e_1_ 3_2_1_2 8_1”,“volume-title”:“事实探索是[面具]:学习与学习回忆。arXiv预印本arXiv:2104.05240”,“作者”:“钟泽轩”、“年份”:“2021”、“非结构化”:“钟泽轩、丹·弗里德曼和陈丹琪。2021。事实探索是[面具]:学习vs.学习回忆。arXiv预打印arXiv:2104.05240(2021)。“},{”key“:”e_1_3_2_1_29_1“,”doi-asserted-by“:”publisher“,“doi”:“10.18653\/v1\/P16-2034”}],“event”:{“name”:“NLPIR 2023:2023第七届自然语言处理和信息检索国际会议”,“location”:“汉城共和国”,“缩写词”:“NIR 2023”},“container-title”:[”2023年第七届自然语言处理和信息检索国际会议论文集“],“原标题”:[],“链接”:[{“URL”:“https://dl.acm.org/doi\/pdf\/10.1145\/33639233.3639239”,“内容类型”:“未指定”,“内容版本”:“vor”,“预期应用”:“相似性检查”}],“存放”:{“日期部分”:[[2024,3,18],”date-time“:”2024-03-18T22:12:39Z“,”timestamp“:1710799959000},”score“:1,”resource“:{主要”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3639239”}},“副标题”:[],“短标题”:[],“已发布”:{“date-parts”:[2023,12,15]}、“references-count”:29,“alternative-id”:[“10.1145\/363233”.3639239“,”10.1145\/3639233“],”URL“:”http://\/dx.doi.org\/10.1145\/3639239“,”关系“:{},”主题“:[],”发布“:{”日期部分“:[2023,12,15]]},“断言”:[{“值”:“2024-03-05”,“顺序”:2,”名称“:”发布“,”标签“:”已发布“,“组”:{“名称”:“publication_history”,“标签”:“发布历史”}}}}