{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,4,24]],“日期时间”:“2024-04-24T20:37:11Z”,“时间戳”:1713991031547},“出版商位置”:“查姆”,“参考计数”:25,“出版者”:“斯普林格国际出版公司”,“isbn-type”:[{“值”:“978303084796”,“类型”:”打印“},{“值”:“9783030884802”,“type”:“electronic”}],“license”:[{“start”:{“date-parts”:[2021,1,1]],“date-time”:“2021-01-01T00:00:00Z”,“timestamp”:1609459200000},“content-version”:“tdm”,“delay-in-days”:0,“URL”:“https:\/\/www.springer.com\/tdm”},{“开始”:{“date-ports”:[2021,1,1],“日期-时间”:“2041-01-01T 00:00Z”,“timestamp”:1609459200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\/\/www.springer.com\/tdm”},{“start”:{“date-parts”:[2021,1,1]],“date-time”:“2021-01-01T00:00:00Z”,“timestamp”:1609459200000},“content-version”:“tdm”,“delay-in-days“:0,”URL“https:\\/www.splingernature.com\/gp\/researters\/text-and-data-mining”}rts“:[[2021,1,1]],“日期时间”:“2021-01-01T00:00:00Z”,“timestamp”:1609459200000},“content-version”:“vor”,“delay-in-days”:0,“URL”:“https:\\/www.springernature.com//gp\/researters\/text-and-data-mining”}],“content-domain”:{“domain”:[“link.springer.com”],“crossmark-restriction”:false},”short-container-title“:[],”published-print“:{”date-parts“:[2021]}”,“DOI”:“10.1007\/978-3-030-88480-2_61“,“类型”:“book-chapter”,“created”:{“date-parts”:[[2021,10,11]],“date-time”:“2021-10-11T11:04:52Z”,“timestamp”:1633950292000},“page”:“758-769”,“update-policy”:”http://\/dx.doi.org\/10.1007\/springer_crossmark_policy“,”source“Crossref”,“is-referenced-by-count”:1,“title”:[“探索预训练语言模型在算术和逻辑推理中的泛化能力”],“前缀”:“10.1007”,“作者”:[{“给定”:“存象”,“家族”:“王”,“序列”:“第一”,“从属”:[]},{“给出”:“博远”,“家庭”:“郑”,”序列“:“附加”,“隶属”:[]},“给定”:“宇辰”,“系列”:“牛”,“顺序”:“附加的”,“隶属关系”:[]},{“给定”:“岳”,“家族”:“张”,“序列”:“附加”,“隶属关系”:[]}],“成员”:“297”,“在线发布”:{“日期部分”:[[2021,10,6]]},“引用”:[{“密钥”:“61_CR1”,“非结构化”:“Chung,J.,G\u00fcl\u00e7ehre,C.,Cho,K.,Bengio,Y.:门控递归神经网络对序列建模的实证评估。arXiv:abs\/141235555(2014)”},{“key”:“61_CR2”,“doi asserted by”:“publisher”,“nonstructured”:“Clark,P.,Tafjord,O.,Richardson,K.:变形金刚作为语言的软推理器。In:Bessiere,C.(ed.)第二十届国际人工智能联合会议记录,IJCAI 2020,第3882\u20133890页。国际人工智能组织联合会议(2020年)。https:\/\/doi.org\/10.24963\/ijcai.2020 \/537,主旋律“,”doi“:”10.24963\/ijcai.2020\/537“},{“key”:“61_CR3”,“doi-asserted-by”:“publisher”,“unstructured”:“Devlin,J.,Chang,M.W.,Lee,K.,Toutanova,K.:BERT:用于语言理解的深层双向变换器的预培训。摘自:计算语言学协会北美分会2019年会议记录:人类语言技术(长篇和短篇论文),第1卷,第4171\u20134186页。计算语言学协会,明尼阿波利斯,2019年6月。https:\\/doi.org\/10.18653\/v1\/N19-1423,https:\\/www.aclweb.org\/antology\/N19-1433“,“doi”:“10.18653\v1\/N19-1423”},{“key”:“61_CR4”,“doi-asserted-by”:“publisher”,“unstructured”:“Dua,D.,Wang,Y.,Dasigi,P.,Stanovsky,G.,Singh,S.,Gardner,M.:DROP:需要对段落进行离散推理的阅读理解基准。摘自:计算语言学协会北美分会2019年会议记录:人类语言技术(长篇和短篇论文),第1卷,第2368\u20132378页。计算语言学协会,明尼阿波利斯,2019年6月。https:\\/doi.org\/10.18653\/v1\/N19-1246,https:\\/www.aclweb.org\/antology\/N19-1245“,“doi”:“10.18653\v1\/N19-1246”},{“key”:“61_CR5”,“doi-asserted-by”:“publisher”,“unstructured”:“Geva,M.,Gupta,A.,Berant,J.:将数字推理技能注入语言模型。摘自:《计算语言学协会第58届年会论文集》,第946\u2013958页。计算语言学协会,2020年7月。https:\/\/doi.org\/10.18653\/v1\/2020.acl-main.89,https:\//www.aclweb.org\/antology\/202.acl-main.89“,”doi“:”10.18653\v1\/2020.acl-main.89“},{“issue”:“8”,“key”:“61_CR6”,“doi-asserted-by”:“publisher”,“first page”:”1735“,“doi”:“10.1162\/neco.1735”,“volume”:“9”,“author”:“S Hochreiter”,“year”:“1997”,“unstructured”:“Hochreiter,S.,Schmidhuber,J.:长期短期记忆。神经计算。9(8),1735\u20131780(1997)“,“新闻标题”:“神经计算。“},{”key“:”61_CR7“,”unstructured“:”Lake,B.,Baroni,M.:没有系统性的泛化:序列到序列递归网络的合成技巧。In:ICML(2018)“}”,{“key”:“61_CR8”,“doi-asserted-by”:“publisher”,“unstructure”:“”Lewis,M.等人:BART:对自然语言生成、翻译和理解的序列到序列预训练进行去噪。摘自:《计算语言学协会第58届年会会议记录》,第7871\u20137880页。计算语言学协会,2020年7月。https:\/\/doi.org\/10.18653\/v1\/2020.acl-main.703,https:\//www.aclweb.org\/antology\/202.acl-main.703“,“doi”:“10.18653\v1\/2020.acl-main.703”},{“key”:“61_CR9”,“doi-asserted-by”:“crossref”,“unstructured”:“Lewis,P.,Stenetorp,P.、Riedel,S.:开放域问答数据集中的问答测试集重叠(2020)”,“doi”:“10.18653\/v1\/2021.eacl-main.86“},{“key”:“61_CR10”,“doi-asserted-by”:“publisher”,“unstructured”:“Linzen,T.:我们如何加快人类语言泛化的进展?摘自:计算语言学协会第58届年会会议记录,第5210\u20135217页。计算语言学协会,2020年7月。https:\/\/doi.org\/10.18653\/v1\/2020.acl-main.465,https:\//www.aclweb.org\/antology\/202.acl-main.465“,”doi“:”10.18653\v1\/2020.acl-main.465“},{“key”:“61_CR11”,“unstructured”:“Madsen,A.,Johansen,A.R.:测量算术外推性能。arXiv:abs\/1910.01888(2019)”},“{”key“:”61_CR12“,”doi-asserted-by“:”publisher“,”非结构化”:“McCoy,R.T.,Min,J.,Linzen,T.:羽毛的BERT不能一起推广:在具有类似测试集性能的模型之间,推广的可变性很大。摘自:《第三届BlackboxNLP研讨会关于NLP神经网络分析和解释的会议记录》,第217\u2013227页。计算语言学协会,2020年11月。https:\/\/doi.org\/10.18653\/v1\/2020.blackboxnlp-1.21,https:\//www.aclweb.org\/antology\/2020.blankoxnlp-12.1“,”doi“:”10.18653\/v1\/2020.blackboxenp-1.21“},{“key”:“61_CR13”,“unstructured”:“Nogueira,R.,Jiang,Z.,Li,J.:使用简单算术任务调查变压器的局限性。arXiv:abs\/21022.13019(2021)”},{“密钥”:“61_CR14“,”doi-asserted-by“:”publisher“,”unstructured“:”Pennington,J.,Socher,R.,Manning,C.:GloVe:单词表示的全局向量。摘自:《2014年自然语言处理实证方法会议论文集》,第1532\u20131543页。计算语言学协会,多哈,2014年10月。https:\/\/doi.org\/10.3115\/v1\/D14-1162,https:\//www.aclweb.org\/contology\/D14-162“,”doi“:”10.3115\/v 1\/D141-162“},{“问题”:“8”,“密钥”:“61_CR15”,“首页”:“9”,“卷”:“1”,“作者”:“A Radford”,“年份”:“2019”,”非结构化“:”Radford,A.,Wu,J.,Child,R.,Luan,D.,Amodei,D.,Sutskever,I.:语言模型是无监督的多任务学习者。OpenAI Blog 1(8),9(2019)“,“journal-title”:“OpenAI Blog”},{“key”:“61_CR16”,“unstructured”:“Raffel,C.等人:使用统一的文本到文本转换器探索迁移学习的局限性。J.Mach.Learn.Res.21(140),1\u201367(2020)。http://\/jmlr.org\/papers\/v21\/20-074.html”}、{“key”:”61_CR17“,”doi-asserted-by“:”publisher“,”非结构化“:”Roberts,A.、Raffel,C.、Shazeer,N.:在语言模型的参数中可以包含多少知识?摘自:《2020年自然语言处理实证方法会议论文集》,第5418\u20135426页。计算语言学协会,2020年11月。https:\/\/doi.org\/10.18653\/v1\/2020.emnlp-main.437,https:\//www.aclweb.org\/contology\/202.emnlp-main.437“,“doi”:“10.18653\/v1\/2020.emnlp-main.4.37”},{“key”:“61_CR18”,“unstructured”:“Sutskever,I.,Vinyals,O.,Le,Q.V.:用神经网络进行序列到序列学习。arXiv预印本arXiv:1409.3215(2014)”},{“键”:“61_CR19”,“非结构化“:”Vaswani,A.等人:注意力是你所需要的。摘自:《第31届神经信息处理系统国际会议论文集》,NIPS 2017,第6000\u20136010页。Curran Associates Inc.,Red Hook(2017)“},{“key”:“61_CR20”,“doi-asserted-by”:“publisher”,“unstructured”:“Wallace,E.,Wang,Y.,Li,S.,Singh,S.和Gardner,M.:NLP模型知道数字吗?探索嵌入中的计算能力。参见:2019年自然语言处理实证方法会议和第九届国际自然语言处理联合会议(EMNLP-IJCNLP)的会议记录,第5307\u20135315页。计算语言学协会,香港,2019年11月。https:\/\/doi.org/10.18653\/v1\/D9-1534,https:\/\/acclweb.org/collectory\/D9-1534”,“doi”:“10.18653\/v1\/D9-1534”},{“key”:“61_CR21”,“doi断言者”:“crossref”,“非结构化”:“Wang,C.,Liu,P.,Zhang,Y.:生成的预训练语言模型可以作为闭书qa的知识库吗?(2021)”,“doi”:“10.18653\/v1\/2021.acl long.251”},{“key”:“61_CR22”,“doi-asserted-by”:“publisher”,“unstructured”:“Wang,Y.,Liu,X.,Shi,S.:数学单词问题的深层神经求解器。摘自:《2017年自然语言处理实证方法会议论文集》,第845\u2013854页。计算语言学协会,哥本哈根,2017年9月。https:\\/doi.org\/10.18653\/v1\/D17-1088,https:\\/www.aclweb.org\/antology\/D17-1085“,”doi“:”10.18653\/v1\/D17-1088“},{“key”:“61_CR23”,“unstructured”:“Wangperawong,A.:关注数学语言与变形金刚。arXiv:abs\/1812.02825(2018)”},“key“:”61_CR24“,”unstructure“:”Zhang,N.,et al.:对预训练模型进行微调可以实现完美的自然语言处理吗?关系抽取的可推广性研究。arXiv:abs\/2009.06206(2020)“},{“key”:“61_CR25”,“unstructured”:“Zhao,W.,Shang,M.,Liu,Y.,Wang,L.,Liw,J.:Ape210k:一个大规模且模板丰富的数学单词问题数据集。CoRR abs\/2009.11506(2020)。https:\/\/arXiv.org\/abs\/2009.11506”}],“container-title”:[“自然语言处理和中文计算”,“计算机科学课堂讲稿“],”original-title“:[],”link“:[{”URL“:”https:\/\/link.springer.com/content\/pdf\/10.1007\/978-3-030-88480-2_61“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[2024,3,7]],”date-time“:“2024-03-07T15:51:00Z”,“timestamp”:17098 2666000},“score“:1,”resource“:{主要”:{“URL”:“https:\/\/link.springer.com/10.1007\/978-3-030-88480-2_61”}},”subtitle“:[],”shorttitle“:[],”issued“:{date-parts”:[[2021]]},“ISBN”:[“978303084796”,“978330884802”],“references-count”:25,“URL”:“http://\/dx.doi.org\/10007\/978-3-08 30-88480-2_61“,”关系“:{},”ISSN“:[”0302-9743“,”1611-3349“],”ISSN-type“:[{”value“:”0302-9743“,”type“:“print”},{“value”:“1611-3349”,“type”:”electronic“}],“subject”:[],“published”:{“date-parts”:[[2021]]},“assertion”:[{“value”:“2021年10月6日”,“order”:1,“name”:“first_online”,“label”:“first online”,”group“:{”name“:”ChapterHistory“,“lable”:“Chapter-History”}},“,”order“:1,”name“:”conference_acrombit“,”label“:”会议缩写词“,”group“:{”name“:”ConferenceInfo“,”label“:”conferenceInformation“}},”value“:”CCF国际自然语言处理与中文计算会议“,”order“:2,”name“:”Conference_name“,”标签“:”会议名称“,”group“:conference_city”,“label”:“ConferenceCity”,“group”:{“name”:“ConferenceInfo”,“label”:“ConferenceInformation”}},{“value”:“China”,“order”:4,“name”:“conference_country”,“label”:“ConferenceCountry”,“group”:{“name”:“ConferenceInfo”,“label”:“ConferenceInformation”}},{“value”:“2021”,“order”:5,“name”:“conference_eyear”,“label”:“ConferenceYear”,“group”:{name“:”ConferenceInfo“,”label“:”会议信息“}},{“value”:“2021年10月13日”,“order”:7,“name”:“Conference_start_date”,“label”:“会议开始日期”,“group”:会议信息“,”标签“:”会议信息“}},{“value”:“10”,“order”:9,“name”:“Conference_number”,“label”:“ConferenceNumber”,“group”:{“name”:“ConferenceInformo”,“标签”:“会议信息”}}}},{“value“:”http://\/tcci.ccf.org.cn\/conference\/2021\/“,”order“:11,”name“:”conference_url“,”label“:”ConferenceURL“,”group“:{”name“:”ConferenceInfo“,”标签“:”会议信息“}},{“value”:“Double-blind”,“order”:1,“name”:“type”,“label”:“type”,“group”:{“name”:“ConfEventPeerReviewInformation”,“标签”:“”同行评审信息(由会议组织者提供)“}},{”value“:”Softconf“,”order“:2,”name“:”conference_management_system“,”label“:”会议管理系统“,”group“:number_of_submissions_sent_for_review“,”label“:“发送供审阅的提交数”,“group”:{“name”:“ConfEventPeerReviewInformation”,“label”:“同行审阅信息(由会议组织者提供)”}},{“value”:“66”,“order”:4,“name”:“number_ of_full_papers_accepted”ConfEventPeerReviewInformation“,”label“:”同行评审信息(由会议组织者提供)15%-该值由等式“接受的完整论文数”/“提交供审查的论文数*100”计算,然后四舍五入为整数。“,”order“:6,”name“:”acceptance_rate_of_full_papers“,”label“:”全文接受率“,”group“:ConfEventPeerReviewInformation“,”label“:”同行评议信息(由会议组织者提供)“}},{“value”:“1.5”,“order”:8,“name”:“average_number_of_papers_per_reviewer”,“label”:“每个审阅者的平均论文数”,“group”:“}},{”value“:”No“,”order“:9,”name“:”external_reviewers_involved“,”label“:”涉及的外部审阅者“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同侪审阅信息(由会议组织者提供)“}},”{“value”:“还包括23篇海报论文和27篇研讨会论文。”,“order”:10,“name”:“”additional_info_on_review_process“,”label“:”审查过程的附加信息“,”group“:{”name“:”ConfEventPeerReviewInformation“,”标签“:”同行审查信息(由会议组织者提供)“}}]}}