{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部分”:[[2024,3,19]],“日期-时间”:“2024-03-19T00:23:52Z”,“时间戳”:1710807832393},“出版商位置”:“美国纽约州纽约市”,“引用-计数”:20,“出版者”:“ACM”,“内容-域”:{-“域”:[“dl.ACM.org”],“交叉标记限制“:true},”short-container-title“:[],“published-print”:{“date-parts”:[[2023,12,15]]},“DOI”:“10.1145\/3639233.3639352”,“type”:“proceedings-article”,“created”:{“date-ports”:[2024,3,5]],“date-time”:“2024-03-05T16:02:10Z”,“timestamp”:1709654530000},《update-policy》:“http://\/dx.DOI.org\/10.1145\/crossmark-policy”,“source”:“Crossref”,“is-referenced-by-count”:0,“title”:[“解释文本分类中的预测不确定性:DUX方法”],“前缀”:“10.1145”,“作者”:[{“ORCID”:“http://\/ORCID.org\/00000-0001-8606-9743”,“authenticated-ORCID”:false,“给定”:“Jakob Smedegaard”,“family”:“Andersen”,“sequence”:“first”,“affiliation”:[}“name”:“德国汉堡应用科学大学计算机科学系”}]},{“ORCID”:“http://\/ORCID.org\/0000-0001-8398-6132”,“authenticated-ORCID”:false,“given”:”Olaf“,”family“:”Zukunft“,”sequence“:”additional“,”affiliation“:[{”name“:”德国汉堡应用科技大学计算机科学部“}]}],“member”:“320”,“published-online”:{“date-parts”:[[2024,3,5]]},“reference”:[{“key”:“e_1_3_2_1_1_1”,“volume-title”:“窥视黑匣子:可解释人工智能(XAI)的调查”,“author”:“Adadi Amina”,《year》:“2018”,“unstructured”:“Amina Adadi and Mohammed Berrada.2018”。窥视黑盒子:关于可解释人工智能(XAI)的调查。IEEE access 6(2018),52138\u201352160.“},{”key“:”e_1_3_2_1_2_1“,”doi-asserted-by“:”publisher“,“doi”:“10.18653\/v1\/2022.findings-acl.121”},“key”:“e_1_ 3_2_1_3_1”,“doi-assert-by”:“publisher”,”doi“:”10.18653\/v1_/2020.coling-main.484“}卷时间“:”获取线索:一种解释不确定性估计的方法。arXiv预印arXiv:2006.06848“,”author“:”Antor\u00e1n Javier“,”year“:”2020“,”unstructured“:”Javier Antor\u 00e1 n,Umang Bhatt,Tameem Adel,Adrian Weller,and Jos\u 00e9\u 00a0Miguel Hern\u 00e indez-Lobato“。2020.获得线索:一种解释不确定性估计的方法。arXiv预印本arXiv:2006.06848(2020)。“},{”key“:”e_1_3_2_1_5_1“,”doi-asserted-by“:”publisher“,“doi”:“10.5555\/1756006.1859912”},“{”key“:“e_1_ 3_2_1 _6_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3461702.3462571“}”,{“key”:“e_ 1_3_2 _1_7_1”、“volume-title”:“我们能打开人工智能的黑盒子吗?自然新闻538,7623”,“作者”:“Castelvecchi Davide”,“年份”:“2016年”,“非结构化”:“戴维德·卡斯特尔韦奇(Davide Castelvecchi)。2016.我们能打开人工智能的黑匣子吗?《自然新闻》538,7623(2016),20.“},{”key“:”e_1_3_2_1_8_1“,”volume-title“:”警示还是认知?重要吗?结构安全31,2“,”author“:”Der\u00a0Kiureghian Armen“,“year”:“2009”,“unstructured”:“Armen Der\u0a0Kiereghian and Ove Ditlevsen.2009。感召性还是认知性?这很重要吗?结构安全31,2(2009),105\u2013112.“},{“key”:“e_1_3_2_1_9_1”,“volume title”:“国际机器学习会议。PMLR,1050\u20131059”,“author”:“Gal Yarin”,“year”:“2016”,“nonstructured”:“Yarin Gal and Zoubin Ghahramani.2016。辍学作为贝叶斯近似:表示深度学习中的模型不确定性。在机器学习国际会议上。PMLR,1050\u20131059.“},{“key”:“e_1_3_2_10_1”,“volume-title”:“IBreakDown:非加性预测模型模型解释的不确定性。arXiv预印本arXiv:1903.11420”,“author”:“Gosiewska Alicja”,年:“2019”,“非结构化”:“Alicja-Gosiewska和Przemyslaw Biecek.2019”。IBreakDown:非加性预测模型的模型解释不确定性。arXiv预印本arXiv:1903.11420(2019)。“},{”key“:”e_1_3_2_11_1“,”volume-title“:”第五届国际学习代表大会,ICLR。“,”author“:”Hendrycks Dan“,”year“:”2017“,”unstructured“:”Dan Hendryck and Kevin Gimpel。2017。检测神经网络中错误分类和分布外示例的基线。第五届国际学习代表大会。“},{”键“:”e_1_3_2_1_12_1“,”卷标题“:”长短期记忆。神经计算9,8“,”作者“:”Hochreiter Sepp“,”年份“:”1997“,”非结构化“:”Sepp Hochreiter and J\u00fcrgen Schmidhuber.1997。长短期记忆。神经计算9,8(1997),1735\u20131780.“},{”key“:”e_1_3_2_13_1“,”volume-title“:”Towards Benchmarking the Utility of Explarations for Model Debugging。In TrustNLP:First Workshop on Trustworth Natural Language Processing.68“,”author“:”Idahl Maximilian“,”year“2021”,“unstructured”:“马克西米利安·伊达尔(Maximilian Idahl)、利君·吕(Lijun Lyu)、乌杰瓦尔·加迪拉朱(Ujwal Gadiraju)和阿维谢克·阿南德(Avishek Anand)。2021.建立模型调试解释实用性的基准。在TrustNLP中:关于值得信赖的自然语言处理的第一次研讨会。68.“},{”key“:”e_1_3_2_14_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1016\/j.csda.2019.106816”},“key”:“e_1_3_2_15_1”,“doi-assert-by”:“publisher”,”doi“:”10.24963\/ijcai.2023\/749“}”,{10.5555\/2002472.2002491“},{”key“:”e_1_3_2_1_17_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/2939672.2939778“},{“key”:“e_1_3_2_18_1”,“volume-title”:“可靠的事后解释:可解释性的建模不确定性。神经信息处理系统的进展34”,“author”:“Slack Dylan”,“year”:“2021”,“unstructured”:“Dylan Slack,Anna Hilgard,Sameer Singh,and Himabindu Lakkaraju.2021。可靠的事后解释:在可解释性方面建模不确定性。神经信息处理系统进展34(2021),9391\u20139404。“},{“key”:“e_1_3_2_19_1”,“volume-title”:“Dropout:防止神经网络过度拟合的简单方法。机器学习研究杂志15,1”,“author”:“Srivastava Nitish”,“year”:“2014”,“unstructured”:“尼蒂什·斯利瓦斯塔瓦(Nitish Srivastava)、杰弗里·欣顿(Geoffrey Hinton)、亚历克斯·克利舍夫斯基(Alex Krizhevsky)、伊利亚·萨茨克沃(Ilya Sutskever)和鲁斯兰·萨拉库丁诺夫。2014.辍学:防止神经网络过度拟合的简单方法。机器学习研究杂志15,1(2014),1929\u20131958。“},{”key“:”e_1_3_2_1_20_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TIV.2022.3188662”}],“event”:{“name”:“NLPIR 2023:2023第七届自然语言处理和信息检索国际会议”,“location”:“Seoul Republic of Korea”,“缩写词”:“NSPIR 2023”},“container-title“:[“2023年第七届自然语言处理和信息检索国际会议论文集”],“original-title”:[],“link”:[{“URL”:“https:\/\/dl.acm.org\/doi\/pdf\/10.1145\/3639233.36399352”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{date-parts“:[[2024,3,18]],“date-time”:“2024-03-18T22:11:25Z”,“timestamp”:1710799885000},“score”:1,“resource”:{“primary”:}“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3639352”}},”subtitle“:[],”shorttitle“:[],”issued“:{”date-part“:[2023,12,15]}”,“references-count”:20,“alternative-id“:[”10.1145\/3639233.3639352“,”10.1145\/3639233“],”URL“:”http:\/\/dx.doi.org\/10.1145\/3639233.3639352“,”关系“:{},”主题“:[],”发布“:{”日期部分“:[2023,12,15]]},“断言”:[{“值”:“2024-03-05”,“顺序”:2,“名称”:“发布”,“标签”:“已发布”,”组“:{name”:“publication_history”,“label”:“出版历史”}}}}