轨迹编辑器

博洛尼亚大学Roberta Calegari(咨询联系人)
安德烈亚·阿勒·塔贝拉(Andrea Aler Tubella),乌梅大学
维吉尼亚·迪格纳姆,乌梅大学
米歇拉·米兰,博洛尼亚大学


概述

我们邀请学者提交他们关于人工智能中公平性和偏见的原始研究,以供在这一特殊轨道上考虑。该课程的主要重点是强调以负责任和以人为本的方式解决这些问题的重要性。这一专题包括2023年10月在克拉科夫与ECAI 2023联合举办的第一届AEQUITAS AI公平性和偏见研讨会的论文精选。

基于人工智能的决策支持系统越来越多地部署在工业、公共和私营部门以及决策中,以指导重要社会领域的决策,包括招聘决策、大学招生、贷款发放、医疗诊断和犯罪预测。由于我们的社会正面临着不平等和交叉歧视的急剧增加,我们需要防止人工智能系统加剧这一现象,而应该使用人工智能来缓解它。当我们使用自动化决策支持系统来规范、扩展和加速过程时,我们既有机会也有责任,通过检测、诊断和修复现有的不公正模式,以更好地重新审视现有的进程,避免其永久化。为了信任这些系统,领域专家和利益相关者需要信任决策。尽管过去几年在这一领域的工作有所增加,但我们仍然缺乏对偏见或歧视的相关概念在人工智能背景下应如何解释的全面理解,以及哪些打击偏见和歧视的社会技术选择既现实可行又规范合理。本主题关注人工智能中的公平和偏见;包括但不限于:

  • 设计上的偏见和公平
  • 公平性度量和指标
  • 反事实推理
  • 量度学习
  • 不可能的结果
  • 公平性、可解释性、隐私、阶级平衡、罕见事件等多目标策略。
  • 联合学习
  • 资源分配
  • 个性化干预
  • 数据、算法、程序的借记策略
  • 人性化方法
  • 审计、衡量和评估偏见和公平性的方法
  • 审计方法和工具
  • 基准和案例研究
  • 标准和最佳做法
  • 可解释性、可追溯性、数据和模型沿袭
  • 可视化分析和HCI,以了解/审计偏见和公平性
  • HCI的偏见和公平
  • 软件工程方法
  • 公平和偏见的法律观点
  • 公平和偏见的社会和批判观点

类型提交

这一特殊轨道包括两类物品:

  • 定期发表期刊文章,旨在提高人工智能中公平和偏见的艺术水平。
  • 观点(长达2000字的短文,专门针对人工智能中公平和偏见的技术观点和意见,其中的立场由事实或原则性论点证实)

人工智能公平领域的定期期刊文章介绍了对该领域有贡献的创新研究。这种新颖性可能源于各种特征,包括:i)专门为AI中的公平性设计的新AI技术的开发和呈现,ii)现有AI技术在AI中公平性范围内应用于以前未探索的领域,iii)通过计算实验或用户研究,对不同的公平人工智能技术进行新颖的实验比较,或iv)引入新的分析、理论或模型,增强我们对人工智能中公平性的理解。

观点论文致力于就人工智能中的公平和偏见领域提出技术性和批判性的观点和意见,并就问题或问题的新解决方案提出新的观点。它们不需要包含主要的研究数据,但应以事实或原则性论据为依据,为辩论提供新的见解或观点。


状态

该轨道已关闭,无法提交新的文件。接受的提交内容将在发布时添加到此页面。


非洲计算机视觉研究现状

阿卜杜勒·哈基姆·奥莫塔约(Abdul-Hakeem Omotayo)、阿瑟里·姆比连伊(Ashery Mbilinyi)、卢克曼·伊斯梅拉(Lukman Ismaila)、侯塞梅丁·图尔基(Houcemeddine Turki)、马哈茂德·阿卜杜安(Mahmoud Abdien)、卡里姆·加马尔(Karim Gamal)、伊德里斯·通吉(Idriss Tondji)、伊万·皮米(Yvan Pimi)、内奥梅·埃托里(Naome A.Etori)、马尔瓦·马塔尔(Marwa M.Matar)、克利福德·