我们是为任务建模还是为注释器建模? 自然语言理解数据集中注释者偏见的调查
@第{Geva2019AreWM条, title={我们是在为任务建模还是为注释器建模?对自然语言理解数据集中注释器偏差的调查}, author={Mor Geva、Yoav Goldberg和Jonathan Berant}, 日志={ArXiv}, 年份={2019}, 体积={abs/1908.07898}, 网址={ https://api.semanticscholar.org/CorpusID:201124736 } }
290条引文
你就是你所注释的:通过注释器表示实现更好的模型
2023
不要责怪注解者:注解指令中已经开始出现偏差
2023
参数挖掘中注解器偏差对任务定义的敏感性
2022
众包中的注解群体偏见
2022
对于困难的NLU数据收集任务,有效的众包协议有哪些要素?
2021
通过对比集评估NLP模型
2020
从最坏的情况中学习:动态生成数据集以改进在线仇恨检测
2021
29参考文献
自然语言推理数据中的注释工件
2018
一个用于学习自然语言推理的大型注释语料库
2015
NewsQA:机器理解数据集
2017
众包语料库注释:走向最佳实践指南
2014
CommonsenseQA:针对常识知识的问答挑战
2019
自然语言推理中的假设基线
2018